数字化浪潮席卷全球的背景下,人工智能技术的快速普及引发社会广泛关注。全国人大代表、华中科技大学校长尤政在3月10日的讨论中,以“养龙虾”此现象为切入点,深入剖析了智能技术应用中的责任划分问题。 问题:技术普及伴随认知盲区 尤政指出,当前用户对智能工具的依赖程度日益加深,但对其运行逻辑和潜在风险缺乏足够了解。以“养龙虾”为例,该工具通过整合用户授权数据生成结论,过程中可能涉及未经明确许可的信息调用或决策行为。这种“黑箱效应”易导致用户对结论盲目信任,甚至引发隐私泄露、财产损失等连锁反应。 原因:权责界定模糊催生监管真空 技术快速发展与法规滞后的矛盾是核心症结。一上,部分厂商为抢占市场,过度强调功能便利性而弱化风险提示;另一方面,普通用户受限于专业认知,难以主动识别技术边界。尤政将其类比为“吸烟警示”——若缺乏强制性告知机制,技术滥用可能像烟草危害一样形成社会性后果。 影响:短期便利与长期风险的博弈 深圳龙岗区推出的“龙虾十条”政策暴露出应用场景的复杂性。政府主导的试点项目尚可通过行政手段把控风险,但民用领域的自发使用则可能因权责不清酿成纠纷。尤政特别强调,商业机构将未充分验证的技术推向市场,本质上是将社会成本转嫁给公众。 对策:构建多方协同的防护体系 针对上述问题,尤政提出三层解决方案:用户端需提升数字素养,理性评估工具可靠性;企业端应建立类似“烟盒警示”的风险披露制度;立法层面则要划定高风险技术的试验范围,禁止商业机构以“试错”名义进行推广。他建议参考金融产品分级管理模式,对人工智能应用实施动态监管。 前景:技术伦理需融入发展主线 随着国家《新一代人工智能治理原则》逐步落地,行业正从野蛮生长转向规范发展。专家认为,未来智能技术的准入标准、追责机制和伦理审查将形成完整闭环,而此次两会讨论为完善治理框架提供了重要实践参考。
“养龙虾”之热折射出新技术进入日常生活的速度,也提醒人们:越是看似聪明的工具,越需要清晰边界、充分告知和可追责的规则。让用户知情、让平台尽责、让制度先行,才能让创新更稳健地服务公众与发展。