多领域学者聚焦人工智能发展边界 人类主体性议题引热议

问题—— 人工智能正以超出预期的速度融入经济社会运行。从辅助检索、智能客服到文本、图像、视频等内容生成——技术边界不断延展——“创造与表达是否仍为人类专属”由此成为公众关注的热点。一些从业者担心岗位被替代、技能价值下降;一些用户担心信息被操控、隐私被过度采集;也有人追问:当机器在对话、写作、创意等领域体现为高度逼真的表现,人类是否还能在知识生产与价值判断上保持主导。 原因—— 这种焦虑并非凭空出现,主要集中在两点:一是技术进步的速度快于社会适应。近年来,大模型在算力、数据与工程体系推动下实现跨越式提升,应用迭代明显加快;相较之下,制度建设、行业规范、教育培训以及公众媒介素养更新相对滞后,使“能用”与“会用、善用、管住”之间出现差距。二是人工智能对内容生产的介入更直接、替代性更强。过去机器更多替代体力劳动,而这个轮变革深入写作、设计、编辑、传播等以脑力与创意为核心的环节,冲击更易被感知,也更容易引发对“人类独特性”的再思考。 围绕“智能从何而来”,不少研究者借用“涌现”等概念解释复杂系统在规模达到一定程度后出现的新特征:当模型参数、数据与训练规模跨过阈值,系统可能表现出推理、归纳、语言组织等能力。这类解释有助于公众理解,所谓“智能”并非偶然灵感,而是概率统计、神经网络与工程优化共同作用的结果。也正因能力来自规模与结构,技术扩展往往呈现“越用越强、越强越普及”的趋势,更放大社会心理上的不确定感。 影响—— 从积极面看,人工智能有望提升生产效率、降低知识获取门槛,推动公共服务与产业转型。在科研辅助、医疗影像、工业检测、政务服务等领域,智能工具已经显示出减少重复劳动、加快决策支持的价值。 但,也带来多重挑战:其一,内容生态面临“低成本批量生产”的冲击,虚假信息、深度合成、标题党与流量操纵更容易规模化扩散,考验平台治理与社会信任。其二,能力依赖风险上升。部分用户将生成内容直接当作结论,忽视事实核验与逻辑自洽,可能削弱独立思考与专业训练。其三,劳动市场结构性调整加速。变化并非简单“被替代”,而是岗位内容重组:基础写作、初级设计、常规客服等环节可能被压缩,需求则更多转向高质量策划、深度调查、跨学科整合、审校把关与价值判断等环节。其四,伦理与法律边界亟须明晰,包括数据来源合规、版权归属、责任认定、隐私保护以及算法歧视等问题;若规则不清,容易出现“技术跑在前、风险堆在后”的局面。 对策—— 应对这场变革,关键在于既理解技术怎么用,也弄清技术为何如此运作,并将其纳入可治理、可评估、可追责的框架。 一是加强基础认知与能力建设。面向公众推进媒介素养与数字素养教育,强化对生成内容的核验意识与引用规范;面向行业推进再培训与岗位转型,推动能力从“会使用工具”升级为“能定义问题、能评估结果、能承担责任”。 二是完善规则体系与行业标准。围绕深度合成标识、数据合规、版权使用、广告与推荐透明度、未成年人保护等,加快形成可执行的制度安排;推动平台、机构与内容生产方建立统一的标注、溯源与审校机制,压实主体责任。 三是坚持以人为本的应用导向。将人工智能定位为增强工具而非替代主体。在新闻传播、教育医疗等对公共利益与社会信任高度敏感的领域,强化人工把关与多重校验,避免将“自动化”误认为“正确”。 四是推动技术安全与治理能力同步提升。加强对模型可靠性、偏差与“幻觉”等问题的评测,建立风险分级与应急处置机制;鼓励关键行业开展可控试点,沉淀可复制的治理经验。 前景—— 展望未来,人工智能仍将持续演进,对内容生产的影响也将从“能生成”走向“能协同”:人类提供目标、价值与责任边界,机器提供搜索、生成与优化,形成新的分工结构。决定社会走向的,不是技术是否强大,而是人类能否在制度、教育与伦理上形成相匹配的治理能力。在这一过程中,“主体性”将更多体现在提出好问题、作出价值选择、承担公共责任与守住事实底线之上。可以预见,随着规则完善与应用成熟,社会焦虑有望从“被取代”的情绪,转向“如何更好使用与有效约束”的理性讨论。

技术进步从来不是线性推进的简单过程,而是与社会结构、文化观念、制度安排交织演化的结果;面对智能技术带来的挑战,既需要科学理性的认知,也需要对价值底线的坚守。历史经验表明,人类文明的韧性来自持续学习与适应的能力。当前这场技术变革,或许正促使我们重新审视文明的内核,强化主体意识。唯有在理解技术逻辑的基础上,才能在新的文明形态中找准人类的位置,推动技术发展与人文关怀相互促进。