谷歌前CEO警告:AI自我提升时,人类必须准备好关掉电源  第1张

12月15日,谷歌前CEO埃里克·施密特在访谈中发表了引人关注的见解。他主张,在必要时人类应关闭人工智能的电源。这一观点迅速引起了广泛的关注。与此同时,谷歌现任CEO桑达尔·皮查伊在纽约的DealBook峰会上对人工智能表现出乐观态度,并认为现有的监管措施已足够。不过,施密特的观点与皮查伊的看法存在显著差异。

施密特警告背后原因

施密特强调,人工智能的发展速度极为迅猛。在他超过五十年的职业生涯中,他未曾见过类似AI这样的技术革新速度。据预测,在未来的1至2年内,可能会出现能够自主开展研究的“AI科学家”。一旦AI系统具备自我优化的能力,可能会引发与人类生存相关的一系列问题。以社交媒体为例,它已经带来了巨大的变革;若更高级的AI应用于不同领域,若遭受恶意利用,其后果可能无法预料。

他的担忧并非空穴来风。当前,人工智能在信息传递、科技创新、药物研发等方面显现出显著潜力。但若用于武器开发或网络攻击,其潜在风险相当严重。这正是他呼吁人类审慎考虑关闭AI电源的初衷。

AI可能存在的负面用途

人工智能拥有显著的功能,然而这种效能同时存在正反两方面影响。在正面,AI在众多积极领域得到了广泛运用,并持续显现其积极作用。然而,在负面,它所潜藏的风险同样引发关注。AI有被用于网络攻击的可能,能够以高效和智能的方式损害网络系统。

一旦军事武器采用其卓越的计算与分析能力,将显著提升武器的破坏力和命中率。若这种能力的潜在负面影响无法得到有效控制,将对人类文明造成严重威胁。

现监管是否足够

皮查伊提到,人工智能在监管方面已得到充分关注,如在药物研发中已有严格审批制度。他认为,AI的应用不会改变现有监管体系,故无需额外监管措施。但施密特则担忧,在AI竞赛中,企业为求速度可能忽略安全步骤,从而可能发布有害模型。

两种观点凸显了两位人物在角色定位和思维方向上的分歧。皮查伊着眼于谷歌当前的业务布局,而施密特则更关注人类可能遭遇的未来生存风险。

施密特呼吁政府监管

施密特不断强调,政府监管人工智能的重要性不容小觑。他深信,随着人工智能的快速进步,政府在保障人类免受潜在风险方面发挥着极为关键的作用。

全球范围内AI的影响日益显著,故政府应提前做好准备,防范可能出现的最不利情况。为此,应建立备用监控体系,确保在人类无法有效控制AI的情况下,AI之间能够相互监督。

谷歌的业务进展

一周前,谷歌迅速对竞争举措作出应对。为了保持在人工智能领域的领先地位,公司推出了新一代的大型模型——Gemini2.0。该模型运行速度是前代产品Gemini1.5Pro的两倍,具备多模态的输入输出功能,并新增了多种智能体功能,如编程助手、数据科学代理以及游戏伙伴等,旨在提升用户的使用体验。

未来发展走向何方

行业专家施密特等持续发出警报,强调AI未来走向充满不确定性。面对这一趋势,是选择加速发展同时降低监管,还是逐步提升监管水平以规避潜在风险?

这是一个引人深思的话题。关于人工智能未来的走向,您有何高见?请于评论区分享您的观点,并期待您的点赞与文章的传播。