2024-11-22 13:55来源:本站编辑
20年前,在人工智能和算法尚未普及的时代,计算机工程师玛丽安-安德烈·里佐乌(Marian-Andrei Rizoiu)便对机器学习产生了浓厚的兴趣。
这位39岁的罗马尼亚移民于2004年获得了硕士学位——“在这一领域尚未流行之前”,他笑着回忆道——他专注于开发和研究能够从数据中学习并在没有明确指令的情况下执行任务的统计算法。
他表示:“我觉得这非常酷,这也是我在研究和训练中追求的目标,最终我还获得了机器学习和人工智能的博士学位。”
如今,他对“酷”的热情已转化为职业生涯的一部分:他在打击数字虚假信息的前沿工作,包括Facebook利用虚拟角色进行的成功实验。
Rizoiu博士现任悉尼科技大学行为数据科学实验室的副教授。
他的研究成果获得了2024年澳大利亚博物馆尤里卡奖的提名,该奖项旨在表彰科学领域的努力与成就。
他是“保护澳大利亚杰出科学”类别的三位决赛入围者之一,因其开发了一种复杂的算法,该算法能够分析人们对错误信息和虚假信息的反应。
尤里卡奖的评审表示,这一研究代表了秘密侦查的“范式转变”,并不会损害言论自由。
在澳大利亚国立大学,Rizoiu博士开始构建网络环境中信息传播的理论模型。
他运用随机模型来估算不同结果的概率,同时允许一个或多个输入在时间上具有随机性。
他说:“当我以讲师身份加入悉尼科技大学时,我想知道是否可以将这种建模方法应用于具有社会影响的领域。”
“我真的希望能有所作为,因此我联系了社会科学领域的同事,他们是这一领域的专家,深入研究错误信息现象。”
他提出了一个简单的问题:“我们能否将我正在构建的量化工具与他们的专业知识结合,扩大规模,以便在识别错误信息、理解其影响及设计对策方面发挥实际作用?”
他说:“从本质上讲,我们建立了一种基于随机模型的方法,使我们能够观察个人对在线用户帖子的反应,从而揭示错误信息传播中的潜在因素。”
发现这些特工非常困难,因为他们往往是隐蔽的。
“如果被发现,他们就会转移到其他地方,但有一件事是他们无法隐藏的,那就是人们对他们信息的反应,”他说。
“我们将社交媒体平台上的所有活动进行规模化,开始学习模式,了解哪些类型的内容更具吸引力。”
“我们甚至可以理解和分析用户,这是我被提名尤里卡奖的贡献之一。”
揭穿错误信息或追究其责任可能适得其反,“火上浇油,吸引更多关注到特定话题上”。
“如果我们认为某些信息超出了有效性阈值,或者可能受到欢迎,我们就会制定对策,”他说。
Rizoiu博士一直在进行一个联邦资助的项目,专注于了解澳大利亚的错误信息环境。
他说:“我们在Facebook上进行了一项实验,创建了几个虚构角色,他们就像我们追踪的错误信息的典型消费者,我们关注特定话题。”
“因此,我们进行了实验,向符合这些角色的用户展示了两种版本的Facebook广告,内容相似但写作风格不同。”
“我们研究了点击率,结果发现我们能够扩大这些社区的覆盖面,穿透过滤气泡……当我们模仿‘正确’的风格时,点击人数增加了一倍。”
他说,错误信息的消费者对政府及其相关消息来源缺乏信任,因此也不信任科学家。
他说:“我们需要讨论他们关心的话题,并以他们易于理解和接受的方式传递信息。”
他说,下一阶段的工作需要与政策制定者和新闻工作者等信息生产者共同合作。
“当你开始用真实的人进行实验时,我们需要认真考虑伦理问题,”他说。
他说,与设计对策相比,探测、预测和预判“可能是更容易的问题”。
“无论我们制定什么解决方案,都会部署对策。这是一场持续的军备竞赛,胜利者是那些能够保持领先的人。”
里佐乌博士表示,他的工作“身兼两职”:
“一方面是有机错误信息的帽子,涉及阴谋论和国家精心策划的外国干预。”
除了与政府合作外,他还与悉尼科技大学的媒体转型中心进行合作。
他说:“我在与媒体机构打交道时遇到的真正挑战是,考虑到资金的流失,过去十年对它们的影响并不温和。”
“他们的时间跨度往往比我小得多。因此,我认为我计划这个项目需要几年,而媒体组织在应对错误信息时可能只需要几天。”
“我认为,媒体机构应该是这些解决方案的首批客户。”
尤里卡奖的获奖者将于周三揭晓。