约瑟夫·希发基思,一位在法国接受高等教育并荣获图灵奖的希腊籍科学家,其关于“为人类永续发展制定AI治理框架”主题论坛上的观点引人关注。目前,AI风险频繁被提及,然而,人类常常难以区分哪些风险源自自身,哪些风险源自技术本身。这种纠结与矛盾正是当前AI发展所关注的焦点。

2024 世界顶尖科学家智能科学大会:图灵奖得主约瑟夫·希发基思谈 AI 治理框架  第1张

希发基思的重要观点一

约瑟夫·希发基思指出,在讨论人工智能风险时,明确区分人类与技术因素至关重要。他于1946年出生,学术成就显著,并于2007年荣获图灵奖。例如,在算法领域,他强调算法需求的不完整性、设计缺陷等问题,这些都是人类使用技术所引发的风险。以某些程序员为例,他们可能因知识储备不足或疏忽大意,导致在编写算法时未能全面考虑需求。此外,算法设计中的逻辑漏洞等问题,也是人类风险在算法环节的体现。

技术引发的风险,诸如客户或投资者对AI系统提出的不合规或不道德要求。2024年,此类案例可能浮现,投资者为达特殊目的,可能驱使系统执行违背社会道德伦理的行为。同时,用户有意将系统应用于高风险领域的情况亦不鲜见。

应对各类风险需采取相应策略。希发基思提出,应先区分人为风险与技术风险,并分别制定应对措施。比如在算法设计阶段,若因设计者知识不足或利益驱动造成人为风险,应从职业道德教育和技术知识强化入手解决。而在技术层面,如算法部署过程中遭遇外部环境威胁等技术风险,则需从优化算法技术以抵御干扰等方面着手。此外,明确法规对界定各方责任至关重要,缺乏明确法规可能导致责任主体不明确,进而引发多种风险滋生。

克莱因伯格指出的人类对AI影响风险

乔恩·克莱因伯格,康奈尔大学的学者,在论坛上分享了独到见解。他强调,在人工智能的进步过程中,人类的排他性偏见可能引发算法偏差。在社会实践中,人们的无意识偏见可能潜入算法编写,例如在招聘算法中,若开发者不慎引入性别或种族偏见,便可能引发筛选过程中的不公平现象。另外,人类易受经济激励影响,陷入单一视角,这可能导致算法发展失衡,趋向片面。

AI现在的智能水平有限

希发基思指出,当前的人工智能尚处于弱智能阶段,其应用主要局限于问答领域。例如,市场上的众多AI对话工具仅能对一些基本常识性问题或给定资料进行简单回应,缺乏类似于人类大脑的深度思考能力。此外,尚无同步人工智能能力的技术和法则,导致目前AI的发展缺乏科学合理的框架进行制约和引导,整个行业仍处于不断探索的过程中。

人类与超AI系统合作的风险

克莱因伯格指出,人类在与超越自身的AI系统互动时面临诸多风险。在与这些先进AI系统协作过程中,人类常会丧失控制权。以高精度金融投资预测AI辅助系统为例,系统作出的决策可能完全左右了人类的操作。若AI系统突然将控制权归还给人类,而人类因缺乏充足信息和能力,可能会作出不当决策。这情形宛如初学者突然接管一台复杂机器,结果可能相当不理想。

如何应对AI带来的风险

根据专家们的意见,无论是希发基思还是克莱因伯格,均强调了对AI风险的重视。在法律层面,需加速制定健全的法规,明确各方责任。技术方面,需优化算法设计,防止人类偏见的影响。在人才培养上,应培养出知识全面且道德素养高的算法工程师。面对人工智能的迅猛发展,读者们应思考如何规避这些风险。欢迎点赞、转发本文,并在评论区分享您的观点。