作者:佘惠敏
近日,关于人工智能(AI)的新闻很多,有人闻之则喜,有人忧心忡忡。深圳“AI公务员”上岗,帮助政府大幅提高公共服务效率。某行业研究报告称,随着AI替代人工,全球银行将在未来3年至5年内裁员多达20万人。AI进步了,到底是会“添帮手”还是会“抢饭碗”?
从美国OpenAI公司发布ChatGPT掀起AI大模型浪潮,到中国DeepSeek风靡全球推动AI普惠,AI在创造新质生产力的同时,也带来了“替代人类就业”“深度伪造诈骗”“信息生态污染”等系统性风险。在智能革命的十字路口强化科技向善法则,关乎人类文明存续。如何才能确保人工智能安全、可靠、可控?
全球合作,为AI划定“不可为”底线
已经有很多人在使用中发现了AI的不靠谱。当AI被赋予“追求效率最大化”目标时,可能选择欺骗人类以完成任务。而AI能力越强,人类就越难分辨真伪。这就要求我们明确技术应用的负面清单,将“不作恶”嵌入AI的底层代码。
划定“不可为”底线,必须建立全球共识。AI具备无国界属性,是全球化的典型代表。技术进步无界限,AI进化有赖于各国科技工作者的充分交流,也有赖于整个人类文明的大数据喂养;技术应用无界限,AI可以广泛应用于医疗、教育、交通、金融等各领域,可以服务各国人民。这一属性,要求人类超越地缘政治干扰,超越地域与文化的差异,共同制定AI普世伦理准则,推动构建公平、公正的人工智能国际治理体系。
主动安全,为AI消除“不可控”风险
上医治未病。对AI的价值观塑造应前置到底层设计阶段,而非事后修补。提高大模型内生安全能力,应将公平、透明、责任等伦理原则转化为可量化的技术参数。在模型训练和设计阶段引入道德约束模块,添加安全语料;在数据采集和处理阶段强调源头管控,严格进行数据筛选及数据安全标注;在模型上线前进行全面安全评估,确保各类风险项目中生成内容的合格率。
在模型部署应用后,日常巡检尤为重要。当然,对AI安全来说,“防守”比“破坏”难度大。当生成式AI的迭代速度超过常用检测工具时,单兵突进式解决方案必然失效。AI时代,发展与安全不是对立,而是相辅相成。用大模型治理大模型,正在成为AI治理的新范式。(佘惠敏)
社会协同,为AI构建“向善”大环境
当诈骗犯能利用AI精准模仿亲人声音,当求职者因算法偏见丧失工作机会,当网络信息被AI制作的海量虚假内容深度污染,技术风险就已渗透社会的毛细血管。应对AI带来的不良冲击,需要建立政府、企业、公众共治的社会协同防御体系。政府要在鼓励创新与管控风险之间保持平衡,企业要开发更多AI安全技术产品,公众要提升批判性思维与科技伦理素养。
这也意味着,教育体系革新迫在眉睫。要在中小学引入“AI素养”教育,教导未成年人正确认识AI;要在大学开设“AI伦理”课程,培养技术人才的社会责任感;要在职业教育中设置“AI转型”基金,资助因AI替代而失业的群体进行技能重塑。
AI技术不是万能的,缺席AI时代是万万不能的。站在智能革命的临界点上,AI进化方向应由人类的集体良知决定。引导AI向善,才能让智能之火照亮人类文明的未来。
点击右上角微信好友
朋友圈
点击浏览器下方“”分享微信好友Safari浏览器请点击“
”按钮
点击右上角QQ
点击浏览器下方“”分享QQ好友Safari浏览器请点击“
”按钮