分享缩略图

分享到:
链接已复制
首页> 资讯>

跨学科共话 AI 风险治理 《人工智能风险治理报告》发布会成功举办

时间:2026-01-16

来源:中国网

分享到:
链接已复制
字体:

2026年1月15日,由武汉大学前沿交叉学科研究院、质量发展战略研究院主办的“人工智能风险与社会影响跨学科对话——暨《人工智能风险治理报告》发布会”(前沿交叉学科研讨会第十九期)在武汉大学质量发展战略研究院报告厅顺利召开。本次会议得到国家自然科学基金项目与国家社会科学基金项目的学术支持,来自政府部门、高校、科研机构及企业的众多专家学者齐聚一堂,共话人工智能风险治理新路径,为人工智能技术安全可控、高质量发展注入智能力量。

聚焦时代议题,共筑跨域治理共识

会议伊始,主持人、国际大学生暨青年艺术博览会常务副总裁马小纳介绍了会议主旨。武汉大学前沿交叉学科研究院副院长孔令杰教授在致辞中指出,人工智能已从“工具性技术”演变为深度嵌入制度结构与社会秩序的通用性基础设施,其风险问题是跨技术、跨制度、跨价值体系的复杂治理议题。他强调,人工智能风险的本质是制度失配风险,治理需要形成法律、伦理、技术标准与组织责任协同发力的复合治理体系,大学和研究机构应成为风险识别、规则设计与公共理性讨论的重要中介力量。

武汉大学质量发展战略研究院院长程虹教授致辞并强调,人工智能正重塑经济运行方式、产业结构和公共治理体系,其带来的挑战核心是社会信任与制度响应。他提出,人工智能时代的“质量”已从技术性能问题转变为综合治理能力问题,涵盖算法可信、系统可控、决策可解释、风险可治理等维度。程虹教授还分享了质量发展战略研究院从“机器换人”到“人工智能风险治理”的长期研究脉络,强调这是需要持续深耕的结构性问题。

创新风险测度,提出治理路径

会上,《人工智能风险治理报告》正式发布。武汉大学质量发展战略研究院邓悦教授以“基于自媒体数据的人工智能应用风险识别、评估与治理对策”为题,解析了报告核心内容。报告构建了人工智能风险评价指标体系,通过对微博、抖音等平台海量舆情数据的分析,揭示了“AI替代”“个人隐私”“数据泄露”等公众核心关切,为风险治理提供了数据驱动的决策参考。

武汉大学质量发展战略研究院罗连发副教授以“AI冲击下的高等教育:测度、挑战与应对”为题作报告。他通过量化研究方法,创新性地搭建起职业暴露度与教育暴露度的关联桥梁,测算了我国高校层面以及专业层面的人工智能暴露度,并讨论了其内在的结构化特征与经济影响。这一研究为缓解结构性失业、促进人才培养与市场动态平衡提供了扎实的数据支撑,为人工智能时代背景下我国的教育政策与教育体系应何去何从提供科学的参考。

跨界多维探讨,碰撞智慧火花

在主题报告环节,多位专家从不同维度分享了前沿见解。武汉大学经济与管理学院叶初升教授围绕“产业智能化向何处去?来自智能索洛悖论的启示”展开论述,直指当前AI技术繁荣与宏观全要素生产率增长滞缓的核心矛盾。他指出,全球AI专利超408万件、中国机器人密度跃居全球第三,但发达经济体与新兴经济体TFP增速均显著下滑,形成“智能索洛悖论”。其关键成因在于结构性失衡:一是AI应用集中少数行业,形成“技术孤岛”被传统产业拖累;二是AI过度偏向“自动化扩张”替代人力,而非提升效率。他建议,应从追求自动化广度转向深度与协调,推动AI技术普惠渗透,缓解产业间与技术方向的结构性失衡,释放全要素生产率增长潜力。

华中科技大学管理学院关旭教授聚焦“AI远程预诊与医疗效率提升”,分享了人工智能技术在医疗领域的应用成果与风险防控经验。针对当前医疗场景中存在严重的供需错配问题,关旭教授团队通过构建理论模型,对比了有无远程预诊场景下患者的就医决策、医院收益及社会福利变化,提出AI医疗技术应用需建立技术准入标准,完善数据安全规范,明确远程预诊收费机制与责任界定,构建“技术赋能+制度保障”的协同治理体系,确保AI远程预诊在提升医疗资源可及性的同时,实现安全合规运营。

武汉大学信息管理学院冉从敬教授以“数智赋能跨境数据合规审查”为主题,探讨了数字经济时代跨境数据治理的破局之道。他指出,数据的自由流动与合规遵从已成为全球数字经济发展的最大堵点,规则碎片化、人力合规瓶颈与技术架构脱节导致传统治理失灵。基于此,他提出智能体赋能的治理新范式,通过“规则深查-数据治理-流程执行”三层架构,实现全球法规实时感知、敏感数据自动识别、合规流程全程自动化。该范式可应用于数据出境全流程管理、全球合规监控、精准数据治理三大场景,推动跨境数据治理从“被动响应”转向“主动预警”,从“人工密集”迈向“智能嵌入”,构建“监管科技”与“合规科技”互操作的新型治理关系。

武汉大学计算机学院陈旭教授以“网络虚假图片的伪造与鉴别技术”为题,深入解析了人工智能技术在图像伪造领域的应用风险与治理对策。他介绍,网络虚假图片含局部篡改、换脸等四类,已引发地缘冲突、金融震荡、舆论误导等危害。在鉴别技术方面,陈旭教授介绍了主动取证与被动盲取证两大路径。陈旭教授团队已取得多项研究成果,并正在推进基于CLIP的TamperCLIP方法及多模态大模型取证研究,为筑牢网络信息安全防线提供了坚实技术支撑。

武汉大学政治与公共管理学院容志教授针对“政务大模型本地部署风险及其治理”发表见解。他指出,政务大模型本地部署面临技术与政务知识脱节、数据孤岛、制度适配不足等风险,易出现“建而不用”“用而不好”等问题。基于深圳“深小i”案例,他提出跨组织学习治理路径,通过“共同感知-权威转译-融合验证-协同迭代”四阶段螺旋式过程,推动政企等多主体显隐性知识转化。政府需从“需求方”转变为“深度主导者”,构建学习共同体,沉淀技术驾驭、业务重构与协同治理三大数字治理能力,实现政务大模型从“能办”到“好办快办”的价值跃迁。

多元碰撞思想,共商创新路径

在以“人工智能风险评估与治理创新”为主题的圆桌论坛上,邓悦教授主持,与华中科技大学计算机科学与技术学院李贤芝副教授、华中科技大学公共管理学院佘硕教授、武汉大学计算机学院肖春霞教授、国数智能科学技术研究总院院长于天宝、武汉大学国家网络安全学院赵莽教授等嘉宾展开深度对话。

嘉宾们结合自身研究领域与实践经验,就人工智能风险的多元表现形式、风险评估体系的构建难点、跨部门跨领域治理机制的创新路径等关键问题各抒己见。肖春霞教授指出AI核心风险是技术超出可解释可控范围,算法黑箱等问题需提前制度安排;李贤芝副教授提出高维感知型AI风险难事前穷尽,应将“感知可靠性”纳入核心评估维度;于天宝院长表示企业焦虑合规边界,建议分场景实行企业自治与政府强制监管;赵莽教授明确训练数据泄露等不可逆风险需设刚性底线,且当前安全风险还存在很大改进空间;佘硕教授主张构建“试错型、可纠偏”治理机制,通过技术赋能监管等路径平衡治理成本与创新活力,嘉宾们分别推荐公共安全测试平台、风险分级与适用清单等优先落地治理机制,论坛最终形成核心共识:人工智能风险治理的难点不在于原则共识,而在于机制的具体性与可执行性。真正成熟的治理体系,需在理性、制度与底线之内实现技术创新与风险防控的动态平衡,既不因恐惧而退缩,也不因进步而失守。

搭建跨学科对话平台,探寻一体化治理对策

本次会议通过报告发布、主题分享、圆桌论坛等多种形式,汇聚跨学科、跨领域的智慧力量,全面剖析了人工智能在产业、教育、医疗、政务、数据安全等领域的风险挑战,深入探讨风险治理的理论创新与实践路径,取得丰硕成果。

与会嘉宾纷纷表示,本次会议为各界搭建了高水平的交流合作平台,不仅深化了对人工智能风险治理复杂性、系统性的认识,更收获了兼具理论深度与实践价值的治理思路与解决方案。《人工智能风险治理报告》的发布,为相关研究与实践提供了重要参考,将进一步推动我国人工智能风险治理体系的完善与发展。

主办方表示,武汉大学前沿交叉学科研究院与武汉大学质量发展战略研究院将持续发挥学科优势与平台作用,推动人工智能风险治理相关研究的深化与拓展,加强与政府部门、企业、科研机构的合作联动,凝聚治理合力,为人工智能技术安全可控、高质量发展保驾护航,为产业升级与共同富裕贡献智能力量。(赵晓熙)

【责任编辑:孙玥】
返回顶部