财新传媒


用法律和道德驯服AI?对监管幻觉的警示

2025年05月30日 14:12
必须正视技术与社会结构的深层互动,如果将化解AI隐患的希望完全集中于政府力量和道德准绳,就容易陷入自我欺骗的陷阱
AI所带来的潜在风险源于人类精心编写的程序,无法仅靠道德自律或滞后立法来彻底化解。图:视觉中国

  近年来,全球人工智能呈井喷式发展,AI正在以一种无法预估的速度重新塑造着我们的生活。这种塑造不仅来自于新兴技术带来的革新,更在认知层面解构着传统治理哲学的根基——我们习惯的监管框架建立在"人类作为唯一智能主体"的预设之上,而AI系统正在创造由硅基载体承载的新型认知实体。然而,现有的AI治理体系在更新迭代的速度上远远落后于AI本身的发展,当政府还在通过繁琐的程序监管现有的AI风险时,新的风险早已产生。当政府治理动作滞后时,人们又将监管AI风险的新希望寄托在道德治理上。但是,对于道德治理的过度依赖与信任,本身就是一种明显的掩耳盗铃,它只会掩盖我们面对AI监管不确定性的焦虑和困惑,是在无视和掩盖而非解决AI监管问题。

  推荐进入财新数据库,可随时查阅宏观经济、股票债券、公司人物,财经数据尽在掌握。

责任编辑:张帆 | 版面编辑:邱祺璞

推广

视听推荐

冯润桓
清华大学经济管理学院讲席教授、国际期刊《Risk Sciences》执行主编、北美精算师协会正精算师、注册风险分析师。加入清华大学之前,曾是美国伊利诺伊大学厄巴纳香槟分校State Farm讲席教授、担任伊利诺伊大学系统的创新合作研究院金融领域主管。主要研究方向为风险治理、养老金融、保险与社会保障、金融科技。