当前,人工智能技术飞速进步,由此产生的风险究竟哪些是人类责任,哪些是技术本身的问题,这一议题引发了广泛争议,其结果亦将深刻影响人类的未来。

约瑟夫·希发基思背景简介

2024 世界顶尖科学家智能科学大会:图灵奖得主谈 AI 风险,你知道多少?  第1张

1946年,约瑟夫·希发基思在希腊出生,随后在法国获得硕士及博士学位。他创建了法国格勒诺布尔大学的VERIMAG实验室,并担任科研主任一职。2007年,他荣获了计算机科学领域的最高荣誉——图灵奖,这不仅彰显了他的学术地位,也确立了他在学术界的影响力。基于他的这一背景,他对人工智能风险的见解尤为引人关注。他长期投身科研,对算法、模型等技术领域有着深刻的理解。

特别值得关注的是,作为计算机科学领域的杰出代表,他在全球范围内对人工智能领域的研究成果产生了重大影响。其研究思路和成就被众多地区所采纳和应用。

AI风险值得关注

在“为人类永续发展制定AI治理框架”主题论坛中,AI发展风险问题被重点讨论。随着人工智能技术的广泛应用,其潜在风险已成为亟待解决的问题。AI已经深入渗透到日常生活的方方面面,以及高端产业领域。以医疗和金融系统为例,它们在很大程度上依赖于AI技术。一旦风险暴露,可能引发严重的损害。

AI技术的广泛应用,若缺乏有效的风险控制,其潜在危害不仅局限于个别用户,更可能波及整个社会。例如,某些城市在交通管理上依赖AI算法,一旦算法出现故障,整个城市的交通系统可能陷入瘫痪。

风险来源一人类因素

希发基思强调,人类因素可能导致人工智能的风险。不完整的算法需求可能导致AI在执行任务时出现偏差。以自动驾驶算法为例,若未考虑特殊路况,事故风险将增加。算法设计的缺陷同样存在,一些算法因逻辑不严密,在初始设计时就埋下了隐患。

在算法部署过程中,外部环境的风险亦被视为人类因素的一部分。例如,在自然灾害发生时,若数据中心遭受破坏,依赖其大数据的AI系统将受到限制。这种现象与人类未能提前采取有效措施应对环境威胁有关。

风险来源二技术自身

技术本身存在潜在风险。客户或投资者可能提出非法或不道德的要求,例如要求算法实施种族歧视性定价或进行数据挖掘。此外,用户可能将系统应用于存在风险的环境中,比如未经批准的人体试验。这些均构成技术所面临的风险挑战。

若此类技术风险未得到妥善处理,可能会引发技术伦理道德的混乱,同时,一些危险行为也可能借助技术平台披上合法的外衣。

应对风险的对策

约瑟夫·希发基思提出,算法设计者和使用者所引入的人为风险,以及算法设计及部署过程中的技术风险,均需采取不同的应对措施。在这一背景下,法规的作用显得尤为突出。若利益相关者未能提出明确要求,诸多问题便随之而生。以数据隐私保护为例,若缺乏明确法规,AI企业可能过度利用用户数据。

法规的约束虽重要,但不足以应对所有问题。因此,需在技术领域提升设计的合理性及安全防护措施。同时,对来自不同渠道的风险进行分别管理,这一点尤为关键。

克莱因伯格看法补充

2024年顶科协颁发的“智能科学奖”获得者乔恩·克莱因伯格在论坛上发表的观点,对希发基思的观点进行了补充说明。他认为,人类固有的排外偏见可能引发算法偏见,进而导致社会秩序的混乱。此外,经济激励因素可能导致算法设计者陷入单一思维模式。

面对高级人工智能,人类认知的局限性可能导致失控,尤其是在AI控制权意外转移时,人类可能会犯错误。对此,我们应如何全面识别潜在风险并采取措施预防这些问题?这无疑是一个值得深入探讨和共同思考的议题。在阅读完本文后,期待各位读者能积极点赞、分享,并在评论区分享您的见解。