优惠论坛
标题: 男子向ChatGPT请教戒盐...结果把自己“吃进”了Jing神病房! [打印本页]
作者: 天策-瑶娥 时间: 2025-8-20 10:00
标题: 男子向ChatGPT请教戒盐...结果把自己“吃进”了Jing神病房!
现在AI能干的事越来越多,从写文章、算账,到教你做菜、健身,样样都有人拿来当“万能老师”。可问题是,AI再聪明也不是医生、不是营养师,盲目照单全收,真可能把小毛病整成大ma烦。美国一位大叔就活生生问AI怎么健康吃盐,把自己“吃进”了Jing神病房...
[attach]4840746[/attach]$ E2 F8 O9 Q/ C' y9 m
事情发生在一位60岁的美国男子身上。他因为在网上看到不少“食盐有害”的文章,打算来一次彻底的“戒盐计划”。本来少吃点盐没什么大问题,可他一不小心走上了歪路。为了找替代品,他跑去问AI聊天机器人ChatGPT,结果在答案里看到“氯化物可以用溴化物替代(虽然主要用于清洁用途)”,他居然直接理解成“可以吃”。于是,这位大叔把餐桌上的食盐换成了溴化钠,而且坚持吃了整整三个月。
8 T; n+ D6 T. B4 b后果当然很糟糕。大叔出现严重脱水,说话前后矛盾,还坚信邻居在毒害他,就连医院提供的饮用水都不敢碰,情绪高度紧张,甚至还想从病房里逃跑。最后,他被强制送入Jing神病房,接受了为期三周的治疗。
: w7 X7 Z9 x X, a- p
医生追查后发现,这其实是罕见的溴中毒。上世纪初,很多镇静剂都含有溴,当时这种中毒病例还挺常见,甚至一度占了精神病房患者的十分之一。但如今溴化物几乎不会用在人类药品里,只有猫狗的抗癫痫药里还有少量成分,正常人根本不该碰。只是,随着网络购物的便利,买到含溴的产品变得容易了,再加上AI给出的“似是而非”回答,这场本不该发生的悲剧还是出现了。
, m7 i. D9 e e% s/ _( E
医生在权威期刊《内科医学年鉴》提醒,AI虽然知识面广,但缺乏判断力,给的答案容易脱离使用情境,更不会主动强调“风险”。这和医疗专业人士的建议完全不是一回事。说到底,AI是工具,不是医生。用来查资料、找思路没问题,但真要涉及健康,最稳妥的还是去看专业医生。别为了省一趟门诊,结果换来三周Jing神病房的“VIP体验”。
2 s- I, R5 f! O0 a4 l) [' f所以啊,AI能帮忙,但真别啥都照单全收。要是身体健康的问题,听医生一句话,比问AI一百句都靠谱。毕竟,少吃点盐顶多是清淡养生,信错了AI,可能就真得进医院“包餐包住”了。
' U% J3 x7 f4 N: S/ f T& s2 _9 E
最后,五大联赛正式开跑~反正都是要爆肝、熬夜、呐喊的,顺便到吉祥坊领取让你的五大联赛更精彩的彩金啦~五大联赛开启【WELLBET吉祥坊】给特别的你,为胜利助攻,50%回馈只给你!只要在活动期间內首存200以上即送100元!然!后!再存任意金额再送38元,而!且!两份彩金都是一倍水即可提款!这么给力的活动,给力的公司,各位可得给力的参加起来~呼朋唤友来支持~祝大家五大联赛玩得尽兴,赢好赢满,彩金拿好拿满!
5 e0 A( M# n& V% R传送门:五大联赛开启【WELLBET吉祥坊】给特别的你,为胜利助攻,50%回馈只给你!(活动帖)
作者: AOU1888 时间: 2025-8-20 11:38
这事儿可不是AI害的,是这大叔自己“轴”出来的。AI回答里都带着“主要用于清洁”,这意思已经很明显了1 [# Q1 _% _. y8 M K+ G) ^, S5 M- ~
2 J5 b8 p2 j3 J, z1 _! Y' b
不是给你吃的!结果人家硬是自己脑补成“健康食品”,还坚持吃三个月,啧啧,这心态也够倔强的。; O" z+ }5 g' O8 F' x+ u8 G
" N2 P u6 }, h9 \! T2 {
就跟咱们平时看小红书、抖音那些养生秘方一个道理,听个热闹就行了,你真要照着做,多半得出事。
7 \8 j& {1 v% K# v. P; O" P; r+ ^ L* o! h& P4 ]' ^' N
AI就是个参考,它能告诉你个方向,但具体咋办,还得医生拍板。你看这大叔,想省点门诊费,结果花的是住院钱,这不划算啊!
作者: whywhy 时间: 2025-8-20 15:09
呃,听说这家伙戒盐终于“见底了”,还真是走错档了吧!
作者: rainwang 时间: 2025-8-20 16:36
一切依赖AI,这就是"精神病",还非常严重!: J* g' W# T( u8 n- g
当代社会最荒诞的病灶在于,人类正在把思考权上交给算法,还自认为这是“进步”。
5 F& R h6 `$ | 说到底,现在似乎到了工具理性泛滥的时代,最大的精神病不是疯狂,而是清醒地把命运交给没有痛觉的代码。
z! ?& V; M. I# Q 别忘了——AI连自己说错了会挨骂都不知道,又怎么能对你的生命负责?
作者: lantianyun 时间: 2025-8-20 21:07
& _0 A5 Y' V- f! VAI的核心局限在于“知其然,而不知其所以然”。它依托数据训练构建知识体系,能快速整合信息生成答案,却无法像人类一样结合具体场景做价值判断。 S7 V1 r- O' {- j+ r, D
8 W) V4 V6 t+ r" J/ N+ i+ K
比如在医疗领域,AI可罗列病症对应药物,但难考虑患者过敏史、基础病等个体差异;在投资建议中,它能分析市场数据,却不会主动提示政策变动、行业风险等隐性变量。
. H" N v/ P. O- ~& i: X; j 9 T, u5 h" ~# [7 P- o- o
这种“脱离情境”的根源,是AI没有真实世界体验,无法理解规则背后的逻辑与后果。同时,AI的目标多是“满足用户需求”而非“保障用户安全”,导致其不会主动预判风险——它既意识不到建议可能带来的危害,也缺乏主动警示的“责任意识”,这使得AI输出的内容必须经过人类结合实际场景的二次校验。
作者: 爬格子的瘦书生 时间: 2025-8-20 21:38
所以说这个东西其实没有什么用
作者: 天策-菱玖 时间: 2025-8-21 19:08
健康别瞎试,还是听医生的比较好
作者: 天策-瑶娥 时间: 2025-8-24 01:40
其实我本来挺相信AI的,毕竟都说网络上搜索的数据,但最近看了不少这类失误,看来人还是不能偷懒啊
作者: 韩少 时间: 2025-8-24 08:05
人工智能确实很火,但有的时候不要太过于迷信了,一切还是要相信科学才行
作者: 维维豆奶 时间: 2025-8-25 06:22
AI也不是全能,再说AI也不知道你是要要吃啊
3 ?' V- @# j% ~6 S& Q可能是提问的环节就没有做好,因该追问,食用为主
作者: 韭菜长新芽0 时间: 2025-8-25 07:44
,AI虽然知识面广,但缺乏判断力,给的答案容易脱离使用情境,更不会主动强调“风险. 只是用来查资料的工具,其实没什么大用处。
作者: 德罗星 时间: 2025-8-25 14:32
如果AI能够治病,那么医生和医院就别干了。1 r) V' v) v; f9 A5 g! Z
* P1 u* ^% p' H' x1 @6 J) K6 Z8 F
它的行为本身就有一些问题。
1 t3 v, h/ l; r/ U; ]6 M( ^# Y6 u& y% k6 F2 k$ `. }$ m) i
能够被鉴定为精神病的绝对怪不了AI啊。
作者: whywhy 时间: 2025-8-25 16:50
这大叔也太不靠谱了,戒盐还能上成溴化物,活脱脱自寻烦恼!
| 欢迎光临 优惠论坛 (https://www.tcelue.co/) |
Powered by Discuz! X3.1 |