人工智能
人工智能应在发展中深度治理
中国经济时报 | 来源:中国经济时报 浏览次数:504
摘要:

人工智能大模型带来的技术变革超出业内预料,随之而来的治理问题也引起关注。

人工智能大模型带来的技术变革超出业内预料,随之而来的治理问题也引起关注。

4月11日,国家互联网信息办公室就《生成式人工智能服务管理办法(征求意见稿)》(以下简称《征求意见稿》)向社会公开征求意见。《征求意见稿》提出,提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗,禁止非法获取、披露、利用个人信息和隐私、商业秘密。

随着ChatGPT火爆市场,大众对生成式人工智能技术的认知程度不断提升,众多投资涌入人工智能行业,一时间,ChatGPT以及相关产业站在了投资风口,人工智能的发展和应用正成为推动全球经济增长的重要力量。

然而,潜在发展与应用机遇的井喷也带来诸多风险隐患。例如,目前已经出现了人工智能模型及其服务侵犯用户个人隐私的案例、虚假信息被用于网络诈骗和网络犯罪、人工智能内容生成甚至会对危险行为的实施提供建议等……业内专家担忧,模型的不可解释性、算法和硬件的不可靠性、自主意识的不可控性,使得人工智能内容生成面临的风险更加不可控。

人类需要科学技术,科学技术是推动人类社会发展的强大动力。人工智能作为一种新兴的技术,有很大的潜力和应用前景,尤其是在医疗、交通、金融、教育等领域的应用,为我们带来更多的便利和改变。但同时,我们也需要研究和探索人工智能的安全性和可靠性,在发展人工智能内容生成技术的同时,对人工智能领域进行深度治理。

安全可信是人工智能治理的核心诉求。打造安全可信的人工智能,要求其技术和系统应具有强健的安全性能,避免因异常操作和恶意攻击而导致安全事故,而利用人工智能技术生成的内容也应当真实准确;同时,用于训练人工智能的数据是机构和个人的核心资产之一,要保护用户数据不被泄露,保护好用户隐私,及时处理工具漏洞;人工智能技术、产品的行为和建议应当是可解释的。

人工智能技术的开发和应用需要遵循基本的价值理念和行为规范。ChatGPT出场不久,就在世界范围内引发了各种伦理问题的担忧,学术不端、创意剽窃、知识产权侵犯等现象屡屡发生,我们需要制定相关治理原则和伦理规范,减少使用人工智能技术带来的社会和伦理风险。同时,在社会和文化价值观方面嵌入治理,实现更有预见性的人工智能治理,实现敏捷治理,以灵活、及时、有效的手段化解人工智能带来的各种伦理挑战,确保其在科技向善的道路上行稳致远,实现良性发展。

治理体系和能力的迭代优化。人工智能发展的特点之一表现为技术进步的速度超过治理体系和能力更新的速度,这也要求我们的治理体系和能力要不断创新,在用好技术治理手段的同时,构建政府、企业、公众等多主体参与,应用多维治理工具的人工智能综合治理框架体系,形成价值共识、多主体分工协作、治理理念迭代优化的创新治理模式。

科学发展的本真应是造福人类,人类社会需要的是能够健康和可持续发展的人工智能,这也是全球开展人工智能治理的目的。

特别声明:
转载上述内容请注明出处并加链接。上述内容仅代表作者或发布者的观点,与中国电子商会官网的立场无关。如有任何疑问或了解更多,请与我们联系。电话:4008 900 668 邮箱:service@cecc.org.cn

中国电子商会 China Electronics Chamber of Commerce
京ICP备13044805号
电话:010-68256762  E-mail:service@cecc.org.cn
Copyright CECC.org.cn All rights reserved
地址:北京市亦庄经济技术开发区博兴六路17号院1号楼3层

京公网安备 11011502005504号