当前位置: 安徽新闻网 > 评论
推动AI负责任应成为社会自觉
来源: 安徽新闻网-安徽日报 2023-04-18 08:01:37 责编: 武静

当前,AI的运用与监管备受社会关注。近日,国家网信办就《生成式人工智能服务管理办法(征求意见稿)》(以下简称《征求意见稿》)向社会公开征求意见,拟进一步强化相关主体责任,内容涉及数据安全、个人信息保护、算法设计、内容合规等多个方面。

随着ChatGPT等通用人工智能的革命性突破,AI技术已成为数字经济时代的核心驱动力、产业转型升级的重要支撑。AI在智慧城市、智慧医疗、智能制造、金融科技等领域的应用示范,推动社会向更高层次的智能化水平迈进,深刻改变着人们的生产生活方式。

强劲发展势头下,AI不可避免会遭遇“成长烦恼”。尤其是以ChatGPT为代表的生成式人工智能服务,能力不断升级,治理难度随之提升。AI生成的内容高度“仿真”,但往往真假难辨、虚实结合。AI有着强大的信息收集能力,但并不能保证数据收集的合法性以及海量信息不被泄露。AI自动化的文本生产模式效率极高,但屡屡出现合成他人作品、复制艺术家风格、抄袭开发代码等版权问题。看似客观中立无情感的AI,有时“理直气壮”地输出偏见歧视的内容,对社会认知和道德伦理产生负面影响。最近一段时间,利用AI技术“复活”已故亲人、换脸换声干预现实世界、无代码编程降低黑客门槛等事件频出,引发社会争议。不解决这些问题,就无法在关键领域信任并使用AI。发展负责任且可信的人工智能技术,成为产业趋势和社会共识。

让AI更负责任,正是围绕AI出台一系列法律法规的目标所在。什么是可接受的、什么是不可接受的,对于人工智能来说,目前标准并不明确。此次把生成式人工智能服务监管提上日程,为AIGC(人工智能生成内容)产业提供了一套明确的法规框架,不仅有助于规范产业健康发展,也可以提升公众对AIGC的理解和信任。虽然监管往往落后于新技术发展,但通过建章立制,强调风险防范、监管前置,能够帮助人们警惕和预判挑战,更好应对技术发展带来的未知性和不确定性。

如何让AI更负责任?技术是中性的,但技术研发的核心是人,不同人会对技术用途作出不同选择。因此,强化相关主体责任,尤其是强调生成式人工智能产品提供者的责任,应被放在突出位置。现实中,一些科技公司盲目追逐商业利益,任由算法野蛮生长,内容无序输出,道德底线频频失守。内容应当真实准确,采取措施防止生成虚假信息。向公众提供服务前,应当申报安全评估。不利用生成内容损害他人形象、名誉以及其他合法权益……《征求意见稿》明确责任主体、划出权责范围,让科技公司有的放矢、有章可循,倒逼上游产业链优化结构、达成内容互信。

为狂飙的AI套上“缰绳”,不是“踩刹车”,而是定方向,助其沿着正确轨道前行。《征求意见稿》提出,国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源,再次明确对AI产业的支持态度。政策层面已在加速建立制度“防护栏”,技术层面也要加快开发治理工具,实现技术应用全生命周期的多层次监管,比如通过科技手段识别AI生成内容,方便内容检测、作品确权。进一步说,监管也要把握好度。约束技术“暗黑面”的同时,尽可能探索治理新路径,创造条件引导技术向善、释放创新潜力,防止“一管就死、一放就乱”情况在AI领域出现。

未来AI或许会像人类一样思考,但在此之前,人们应该思考的,并不是能不能创新,而应是为什么创新、如何更好创新。想清楚这些,才能引导AI作出正确的、合乎法治伦理的决策和行动。每一个新技术的参与者、使用者、监管者,都应拉紧道德和法律的缰绳、有所为有所不为,以负责任的方式更好服务社会。从这个角度说,推动AI负责任应成为社会自觉,与AI共同成长,人类责无旁贷。

■ 韩小乔

    相关新闻
以科技之光照亮“民生路”