一、问题:营销叙事与功能定位出现张力,易引发误用风险 近日,特斯拉北美官方社交账号转发了一段Cybertruck车主采访视频;视频中,车主称其视力持续衰退,曾就“是否还能驾车”咨询眼科医生,并被建议选择搭载FSD的软件车型;其试驾过程中表示“长时间未触碰方向盘”,并最终以使用该功能为主要目的购车。视频网络传播后,引发了“视力下降人群是否适合依赖L2辅助驾驶”以及企业传播是否会造成误导的争议。 需要强调的是,特斯拉在支持页面对“FSD(监督版)”的说明较为明确:该系统属于SAE定义的L2级部分自动驾驶,驾驶员必须保持注意力并随时接管,交通安全责任始终由驾驶员承担,系统并不等同于可实现无人化的自动驾驶。 二、原因:命名、体验与传播方式叠加,放大公众对“自动驾驶”的想象 业内人士指出,辅助驾驶技术迭代迅速,产品命名、功能体验与传播表达之间,容易形成“功能可用”与“可替代驾驶员”之间的认知落差。一上,L2系统特定道路与工况下可实现车道居中、跟车、自动变道等组合能力,带来较强的“自动化体验”;另一上,若传播中突出“解放双手”“无需操作”等片段,却对“监督”“接管”“责任归属”的限制提示不充分,部分用户就可能误判系统能力边界。 此外,视力衰退、注意力障碍等情况本身就是影响驾驶安全的重要变量。按照多国通行的交通安全原则,驾驶能力评估是上路的基本门槛,辅助驾驶的设计目的在于减轻负担、降低风险,而非替代驾驶员履行责任。若以暗示方式将L2系统包装为“弥补视力缺陷的替代方案”,可能与现行法规框架及企业自设边界发生冲突。 三、影响:安全风险、法律争议与监管压力交织,行业信任面临考验 从道路安全角度看,L2系统要求驾驶员持续监督并能够及时接管。多项研究提示,当车辆从辅助状态交还人工控制时,驾驶员需要一定时间完成态势重建并有效接管;若驾驶员本就存在视力下降、反应能力减弱等问题,处置突发情况的不确定性将更上升。 从法律与治理层面看,若用户在“系统可替代驾驶”的认知下放松监控,一旦发生事故,责任认定、证据获取以及企业宣传是否合规都可能成为争议焦点。目前,美国国家公路交通安全管理局已扩大对对应的系统的调查范围,覆盖车辆数量较大;同时,围绕该功能相关交通事件与事故的舆论与司法关注也在升温。基于此,任何可能强化“无需监督即可自动驾驶”的传播内容,都可能加剧监管机构对企业合规与风险管理的审视。 四、对策:强化边界提示与合规传播,推动人机协同规则清晰化 针对辅助驾驶引发的认知偏差与使用风险,业内普遍认为需要企业、监管与消费者三端同步发力。 企业层面,应在产品命名、功能说明、交互提示与营销传播中,以持续、显著且易感知的方式强化“监督与接管”要求,避免用个体案例暗示系统具备替代驾驶员的能力;在试驾与交付环节,应完善培训与风险告知,并建立对高风险使用场景的提示机制。 监管层面,可进一步细化辅助驾驶宣传与演示的合规边界,明确“能力适用范围”“禁用场景”“责任主体”三项信息的呈现标准,并提高违规成本;同时推动事故数据报送、事件分级处置与软件更新透明度建设,为责任认定与系统改进提供依据。 消费者层面,应理性看待辅助驾驶功能,将其定位为安全冗余和驾驶辅助工具,避免在视力、反应能力等不满足安全驾驶条件时寄望系统“替代驾驶”。如身体条件发生变化,仍应优先遵循医疗与交通管理部门的评估与合规路径。 五、前景:辅助驾驶将更普及,但“能力—责任—规则”需同步升级 随着传感器、算法与整车电子电气架构的升级,辅助驾驶功能渗透率预计将继续提高,但技术进步并不意味着责任随之转移。短期看,L2及L2+仍将是市场主流形态,“人类驾驶员为责任主体”的制度框架难以改变;中长期看,更高等级自动驾驶的落地仍取决于法规体系、道路基础设施、运营管理与保险机制等配套的系统完善。 因此,辅助驾驶的讨论将从“能不能用”逐步转向“如何安全用、如何合规用、如何可追溯用”。边界表达一旦模糊,带来的不仅是信任成本上升,也会推高治理成本。
这起“医生推荐”事件像一面多棱镜,既折射出技术创新与生命安全之间的长期张力,也暴露出商业传播与伦理边界的现实难题。技术加速进入交通出行领域后,如何在推动创新与守住安全底线之间取得平衡,将检验企业的责任意识与监管的治理能力。正如交通工程专家沃克·史密斯所言:“任何技术都不应超越其能力边界承诺安全,这是对生命最基本的尊重。”