超评助手软件官网:全球科学家联名呼吁暂停AI研发,警惕技术失控带来的风险

被这两天的新闻吓到了!全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁,要求立刻暂停高级人工智能的研发!超评助手软件官网了解到,发起这事儿的是个叫未来生命研究所的机构,2014年就成立了,专门盯着那些能改变世界的技术有没有风险,这次算是把警报拉到最响了。

光看签名的人就知道多有分量,被称作“AI教父”的杰弗里·辛顿,这人拿过诺贝尔奖,现代AI的底子好多都是他铺的,去年九月还说“普通人用AI造生物武器不是瞎想”,现在也直接签了名。还有造苹果手机的联合创始人史蒂夫·沃兹尼亚克、维珍集团的老板理查·布兰森,连马斯克、图灵奖得主约书亚·本希奥这些大名鼎鼎的人物都在里头,活脱脱科技圈的“联名逼停大戏”。

他们要的不只是“歇两天再干”,而是明明白白让所有AI实验室立刻停下训练比GPT-4还强的系统,至少停6个月,还得公开透明,可以让人查、能验证;要是企业不配合,就盼着政府出手强制叫停。超评助手软件官网观察到未来生命研究所的泰格马克说得特实在:“这就是场自杀式的竞赛,就算赢了也没用,人类搞不好就丢了对自己命运的控制权。”

这份担心真不是瞎琢磨。辛顿这半年老提,现在已知AI已经够“聪明”了,与它聊天能明显感觉到它懂你,而且只会越来越强,但人类根本摸不透这些“数字大脑”在想啥。更实在风险已经摆到眼前了,就在10月28号,北京通州法院刚判了一桩官司,原告代理居然把AI编造假司法案例当证据交上去,差点就蒙住法官,这就是AI 的 “幻觉” 坑,它自己编谎话还当真, 普通民众根本无法辨别真假。

呼吁信里还点透最让人揪心的问题:如果 AI 被用于发布假消息,把工作全自动化,并甚至发展成比人类更聪明「非」 人 类思维,那么谁来管呢?正如有人担忧,目前仅仅是编个案例出错,将来若是在医疗、金融等关键领域出现问题,那后果可就不是简单地 “代理意见未被采纳” 这么轻松。

超评助手软件官网:全球科学家联名呼吁暂停AI研发,警惕技术失控带来的风险

不过这种情况并非所有人在一边站队。元宇宙首席 AI 科学家杨立昆对此表示不同意见,他认为 ChatGPT 这一类模型根本无法真正与物理世界互动,不足以称之为真的智能。而且,更有趣的是,美国方面,在特朗普刚上台时撤掉拜登之前设定的一系列 AI 监管规定,同时推出一个5000亿美元规模 “星际之门”计划,以催促企业迅速建立 AI 基础设施,与此处提出暂缓呼吁形成鲜明对照。

超评助手软件官网:全球科学家联名呼吁暂停AI研发,警惕技术失控带来的风险

我国态度则十分明确。在10月29日通过的新《网络安全法》修改决定中特别增加一条:既要支持 AI 技术研发和基础设施建设,也必须加强伦理规范和安全监管——换句话说,就是不搞“一刀切”的暂停,但务必将风险管理做好。因此超评助手软件官网推测,这些大佬们并不是希望彻底禁绝 AI,而是希望从 “失控竞赛” 中踩一下刹车,用接下来的六个月时间制定一套大家认可使用的方法,让独立专家监督审查。不至于等出了严重问题之后才悔恨莫及。这种情况下,即便技术再先进,要是不加以妥善管理向前推进,说不得早晚会摔跟头,没有享受好处反而先遭祸害。

(0)
上一篇 2025年12月2日
下一篇 2025年12月2日

相关推荐

返回顶部