您的位置:首页 > 快讯 >

用“科技向善”约束AI不当滥用风险


(资料图片仅供参考)

原标题:用“科技向善”约束AI不当滥用风险

数字化3.0时代,人类生活越来越离不开人工智能。但无论是深度合成技术存在被“恶用”,还是虚拟人取代部分真人职业带来的误导效果,都显示了人工智能被滥用恶用的风险。善用人工智能价值的同时也要遏制滥用恶用风险,确保技术被用来造福社会而非用于作假作恶,目前已成社会多方的共识。

随着ChatGPT、GPT-4与文心一言等相继问世,人工智能正越来越多地嵌入大众生活,诸如AI换脸、三维重建、智能对话、虚拟代言人之类的应用场景,亦渐次从科幻片照进现实。它连着的,也是新一轮科技革命和产业变革的宏阔图景。但人工智能技术的跨越性突破,也会带来很多不容小觑的风险。现实中,利用人工智能技术侵犯个体隐私、实施网络诈骗等情况时有曝光,由此引发的社会顾虑就摆在那。

亚里士多德说:一切技术、一切规划以及一切实践和抉择,都以某种善为目标。只有将人工智能发展引向科技向善的轨道中来,才能避免ChatGPT变CheatGPT,人工智能成为作恶工具。而这,需要企业、公众和监管方等多方围绕推动科技向善目标相向而行。

法律学者马长山曾表示,在算法治理过程中,应适时确立数字正义原则,框定数字正义领域,探索数字正义实现路径,从而构建科技向善、以人为本的算法治理秩序,促进我国的数字法治建设。这要求我们建立起相应的监管机制、自律机制、社会监督机制和司法保障机制。这类原则,显然该贯穿于人工智能技术发展与监管的始终。

揆诸现实,从“民权保护之母”《民法典》,到作为信息保护根本大法的《个人信息保护法》,再到今年1月10日起施行的《互联网信息服务深度合成管理规定》,我国涉及AI规范使用的法律体系正不断完善。这也为AI善用提供了现实指引。

人工智能的算法有弊端有不足,那就用更高阶的“算法”来消解——这套“算法”的核心就是以人为本。某种程度上,这也是“科技向善”的正确打开方式。(佘宗明)


标签:

相关阅读