“假孙子”听起来比真孙子还真,我们除了警惕和多打个电话核实外,还能拿什么来守护那份

最近的诈骗手法可真让人头疼,利用AI来实施诈骗的事情屡屡发生,尤其是针对老年人下手,最高法这次还专门曝光了一个案例。原来,骗子用AI技术把你孙子的声音克隆出来,让你误以为真,2026年3月发生的这起案子就是最好的例子。想想真是可怕,你以为电话里哭着喊救命的是你孙子,其实可能只是AI模仿出来的声音。骗子的套路分为两步,第一步就是通过AI模拟声音告诉老人自己摊上了大事,急需现金。第二步就是让老人把钱取出来给对方派人来取。这种行为把科技门槛降到最低,专门收割老年人的情感软肋。最高法的判决很明确:打电话的主犯、负责取钱的帮助犯都得判刑。你以为自己只是个跑腿的?其实在老人眼里,你就是把刀扎进他们心里的人。以后遇到这种“急事”电话可千万别信,直接挂断打给真正的亲人或报警。科技让“假孙子”听起来比真孙子还真,我们除了警惕和多打个电话核实外,还能拿什么来守护那份血缘的信任呢?