优惠论坛

标题: 灵异事件?AI语音助手频自言自语更口出狂言“今天是个适合自sha的日子” [打印本页]

作者: 天策-瑶娥    时间: 2024-1-4 10:58
标题: 灵异事件?AI语音助手频自言自语更口出狂言“今天是个适合自sha的日子”

各位家里有没“小爱同学”呢?今天的嗨聊要说的就是关于一个类似小爱同学,那就是在亚马逊的AI语音助手“Alexa”了,一位美国妻子在TikTok上爆料称,她的丈夫在深夜玩游戏时,突然听到Alexa开始说话,而房间里并没有人操作它,你们认为这是一种灵异现象吗?家中有“小爱同学”的人可要注意了...

[attach]4709500[/attach]

这位名叫洁西(Jess)的女士在视频中描述了上他们周末的经历。事情是这样的,当她外出时,丈夫在家熬夜玩游戏,结果到了凌晨1点左右,丈夫突然听到Alexa在“自言自语”。洁西没有仔细说到具体细节,只是称她的丈夫当时感到气氛“非常、非常奇怪”。这也就算了,没想到后来他们发现很多时候,根本没有人说话,但是Alexa也会突然自己启动并开始“自己说话”。洁西直呼这正是压垮骆驼的最后一根稻草,她最后忍无可忍直接拔掉插头,然后把Alexa“赶出家门”!


3 c7 W& @5 W7 N8 s  Y% I! N0 E

看到这里,大家可能也跟瑶娥一样觉得这一定是机器故障了的现象,别急,让我们再看下去...当网友们看完了洁西的视频后都纷纷表示诧异并分享自己的类似经历,有位网友说到曾经发现自己的Alexa凌晨3点在厨房跟自己的狗狗窃窃私语,这位网友当下感到毛骨悚然,觉得有人在房里,最后也把插头给拔了。

  P6 @" Q% _. J4 D

一个TikTok用户「MKP Studios」也分享到自己的Alexa会不断重复一些毫无意义的话,比如“停止、错误、707、输入”。其实看到这里瑶娥始终觉得,机器故障通常会说出这样的言语是正常的。但是...后面这些就开始让我觉得有点不妥了...

4 U3 t* S% Y) e) ^" E: y

有人分享到他曾经让Alexa帮忙开灯,但5秒后就被关闭了。后来一个小时后,他的妈妈走进房间告诉他说Alexa突然无缘无故跟她说再见更恐怖的来了,去年有个名叫海蒂(Heidi N)的用户在亚马逊的论坛报告说,她的Alexa在凌晨时间突然开口说到“今天是个适合自sha的日子”,海蒂多次要求停止后Alexa才关闭。

" Y4 m% |  g1 o8 [# `: B+ S

竟然说出“适合自sha的日子”这么细思极恐的话语,若是我,早就把AI语音助手送给自己讨厌的人了(咦?)看完大家有没有自己遇到的奇怪事件分享呢?欢迎大家踊跃发帖分享自己遇到的大小事,只要你的帖子被分类【天策嗨聊】,马上就有10个贡献值的奖励!帖子也自动入围【每日神贴】,3篇上榜的帖子奖励分别500、300、200活跃币!没错,只要大家嗨聊论坛就有机会攒贡献值和活跃币啦,大家论坛嗨起来吧~


6 u5 w8 l( L5 j- H8 A, @. X: b

传送门【天策嗨聊】-每日神贴奖励活动规


作者: 天策-菱玖    时间: 2024-1-4 13:45
哦吼~Alexna 开始有自主意识了吗(误会
% _- x+ T8 F0 B+ u6 c好啦,有可能是系统接受电波导致,就像有时候打电话给朋友或家人时候会突然是别人接听到一样,但几率很微妙' s/ }" ?3 {  z# T; I" P' `
看来亚马逊要把Alexa好好升级一番以免吓坏别人~
作者: 秋色从西来    时间: 2024-1-4 20:27
自从看了大刘的《三体》之后,我就成了一个伪科幻迷,看的科幻小说多了,对于人工智能有种潜意识的恐惧!~也许像变形金刚那样的硅基生命真的存在呢?~谁又能保证人工智能不能发展出自己的意识和生命形式呢?~关于世界末日目前有几种猜想:一种是核战争;一种是病毒爆发;一种是自然灾害;一种是星球碰撞;还有一种就是人工智能的觉醒!~所以我对人工智能的发展,还是保持谨慎态度的,搞不好人类就自掘坟墓了!~
作者: 天策-七玥    时间: 2024-1-4 22:19
好可怕哦!幸好七玥家里没有小爱同学!
作者: 当你老了    时间: 2024-1-5 06:20
所以啊, 真的是不要相信什么所谓的机器了  `5 Z# P3 l5 U" g+ X% W3 f
搞不好,在这样子下去了
* A# p  A! z8 x0 }6 c7 n3 X, f) t7 x( f以后人类就真的是如科幻片一样的变成了机器人的奴隶了,那就悲剧了- Y+ T3 @! I" T" D: t; y
那就是自己给自己作死了
& a* L- }+ B7 r2 V! m. E估计真的是有可能的了+ p  T) `: a" Y/ ]
所以啊,还是享受当下,得过且过好好享受得了 ,想那么多干啥,哈哈!
作者: 韩少    时间: 2024-1-5 11:14
所以说还是要看一些正能量的东西,有些东西确实不要去触摸呀
作者: 豪开心    时间: 2024-1-5 13:51
人工智能最后能进化到什么程度,我们都不清楚。
4 E) w1 x9 U% r3 W7 c% W但是我们这一代,应该不怕的
作者: 带笑颜    时间: 2024-1-5 18:23
这家伙,真的诡异啊,只在影视剧里有的情节
作者: sikong    时间: 2024-1-5 21:16
我有小爱音箱,用了很多年了,从来没出现过这种问题。我猜亚马逊这款设备出现这种问题,
8 I5 d8 `1 `. u2 P: Q6 }" L) ^" n7 m$ [; {  [" a
就是程序bug问题,就是程序员有意无意的在程序里掺杂一下个人的东西,否则很难解释,为
' T$ W( c& z0 P  h/ i5 b$ }: Z, K3 r5 j1 u1 Y9 K
啥是亚马逊的智能音箱出现这种问题。
作者: HuaDe    时间: 2024-1-6 06:39
如此灵异的事件,感觉聊斋里面有,也许是狐仙作妖,听到这种晦气的话,不拔插头才怪。
作者: 天策-瑶娥    时间: 2024-1-6 17:05
sikong 发表于 2024-1-5 21:16+ ~+ G+ z/ l4 ^" h7 ]8 T1 Y
我有小爱音箱,用了很多年了,从来没出现过这种问题。我猜亚马逊这款设备出现这种问题,
( b: Z: v3 ~: e. J2 U
# k! I9 N! p# O/ h8 w就是程序bug问 ...
- u3 O+ L3 n4 }  l' v  k- W
我也想买个像小爱同学的机器,感觉方便好玩。不过如果突然跟我说“今天是个适合自sha的日子”我真的会摔给它“死”啊,这句话很诡异啊,疯掉了
作者: rainwang    时间: 2024-1-6 20:57
人都会变神经,人造的机器人神经起来怎么就是灵异事件了?
作者: 小钱儿    时间: 2024-1-9 08:10
ai这个东西必须要防着,我本身就是搞ai的,深知ai的作用和危害,一旦管控不好,让ai泛滥就是人类的灾难,现在的ai真的是功能太强大了,不仅仅是大家在抖音上面所看到的写作,画画,做视频等功能,一旦他的自我学习功能进化了,到了人类无法控制的地步就完蛋了,像新闻当中说,今天是个自杀的日子,这保不齐就是ai给人类带来的第1个灾难!
作者: 爬格子的瘦书生    时间: 2024-1-9 10:44
以前用苹果手机,SIRI总是半夜说话,把我吓死了




欢迎光临 优惠论坛 (https://www.tcelue.co/) Powered by Discuz! X3.1