AI合成技术可高仿声线,警方呼吁长者提高警觉。
AI合成技术可高仿声线,警方呼吁长者提高警觉。

用AI冒孙子声音行骗 老人1.17万积蓄被骗光

Published at Jul 02, 2025 12:12 pm
AI技术迅速演进,为日常生活带来便利的同时,也成为诈骗集团的新利器。中国湖北黄石近日发生多起诈骗案件,犯罪集团利用AI合成技术冒充孙子声音行骗,造成至少两名年长者上当受骗。

警方调查显示,诈骗者透过频繁拨打电话收集声音样本,再进行仿声诈骗,使人真假难辨。

根据中国《央视》报道,受害者刘女士回忆,今年4月28日,她接到自称是孙子的电话,声称在超市与人冲突导致对方头部受伤,正被警方扣留,急需2万人民币(1.17万令吉)进行和解。为了凑足金额,刘女士与丈夫四处筹钱,并依照“孙子”指示,在指定地点交付现金予一名自称同学家长的人士。由于对方声音与孙子相似,让她毫不犹豫地交出款项,直到孙子返家后才惊觉受骗。

警方进一步查证发现,诈骗者以座机为主要联络方式,利用长者对通讯技术的不熟悉与对亲人的信任,加上合成语音,成功误导受害者。此外,诈骗者也以高薪兼职名义在网络征才,吸引不知情者负责上门收钱,形成犯罪链。

除了语音诈骗,AI“换脸”技术也被犯罪分子用于违法激活电话卡。湖北襄阳警方查获一个诈骗团伙,成员利用非法取得的个资与照片,合成动态人脸影片,突破电信业者人脸识别防线,成功激活超过200张电话卡。这些卡片进一步流入诈骗团体手中,涉案金额超过500万人民币(292.84万令吉)。

专家指出,现行线上认证机制若仅仰赖“身分证+人脸识别”恐不足以防堵高阶AI攻击,呼吁业者需加强技术防线。包括运用AI技术反制AI伪造,并导入热力图辨识与深度学习演算法等新式验证机制,目前已有技术可将辨识准确率提升至95%以上。

此外,《人脸识别技术应用安全管理办法》已于今年6月实施,要求企业在应用人脸识别时应落实合法、正当、必要原则,并采取分离储存、资讯加密等安全保护措施,以避免个资外泄风险。

法学专家指出,根据《中华人民共和国反电信网络诈骗法》,电信业者若未妥善落实实名制与资安保护,最高恐面临500万人民币罚锾,甚至须承担暂停营业等责任。面对AI诈骗风险,“以技制技”与严格监管将是遏止诈骗的关键。

Author

联合日报newsroom


相关报道