AI时代讯息真假难辨?杜奕瑾提应对方法
The Epoch Times
随着ChatGPT、DeepFake等生成式AI时代来临,假讯息将会大增,对此,台湾人工智慧实验室创办人杜奕瑾谈到防守方法,可透过AI来全面性阅读,观察发布讯息者的偏见或讯息发布时是否有协同性,这会比去分析讯息本身真假还来得快与有效。
生成式AI时代来临,不管是对科技富豪马斯克(Elon Musk)还是知名历史学家佛格森(Niall Ferguson)来讲,都很担心假讯息造成真假难辨的情况。
杜奕瑾表示,假讯息其实在生成式AI还没来临之前就有,像是剑桥分析的案例,就是用假讯息加上社交媒体的平台做精准的行销,不管是用在行销、诈骗,还是针对民主国家的认知战,假讯息都被广泛使用。
生成式AI时代的假讯息,除了制造成本大减,还真假难辨,加上许多讯息是用“误导”的方式,可能70%多是真的,但剩下的30%加以改写,放大某些角度,用来操纵或加深民众的偏见,加大了辨识的难度。
杜奕瑾指出,透过事实查核速度太慢,“你查核一篇,假消息已经是几篇十几篇的在操作”。
所以与其去看讯息真假,他提出用AI透过全面性的阅读,“比如说在现在这个时候,我们可以知道媒体报导了一些什么,社交媒体讨论了一些什么,透过全面性的阅读我们可以知道每一个报导者、传播者的偏见,那我们也可以知道报导跟传播者的协同性,就是我们可以知道哪些账号看起来不是正常的使用者。”
透过分析讯息传播的协同性,可以发现有心人士操作社群账号的分工,像有些是免洗账号,专门出来放消息,有的账号是用来攻击用的,有些账号是用来作为传播用的,有些是用来作为捧红某个影片用的等等。
杜奕瑾表示:“我们透过这种大量的讯息阅读,跟大量的账号理解,我们就可以知道,他们这个账号的协同是基于什么,他们在做这些事情的目的是什么。”
生成式AI由于讯息真假难辨,也带来了科技伦理的问题,比如版权问题的保障,或者是AI自身的偏见所带来的问题, 所以杜奕瑾认为,应该发展以人为本的人工智慧研究,AI的发展必须保障人权隐私,所以人工智慧研究室也发布了相关准则,也参与了台湾负责的AI的开发。