在人工智能浪潮席卷全球的今天,奥克兰理工大学高级讲师李伟华博士带领团队开发了新型检测系统LLM-BotGuard,该系统能够识别由大型语言模型驱动的社交机器人,为应对网络虚假信息与欺诈提供了创新解决方案。
人物简介
李伟华博士现任奥克兰理工大学工程、计算机与数学科学学院高级讲师,于2014年获新加坡国立大学硕士学位,2018年获奥克兰理工大学博士学位。作为人工智能领域活跃的研究者,他已在《Knowledge-Based Systems》《Expert Systems with Applications》《IEEE Transactions on Big Data》等知名期刊与会议上发表论文70余篇,研究专长涵盖社会智能、生成式AI、自然语言处理、知识图谱与多智能体系统等方向,尤其擅长在线社交网络影响力扩散的建模分析。兼具软件工程师背景的他,善于开发创新性人工智能系统,并曾参与组织AAMAS 2020、AAMAS 2022等重要国际学术会议。
研究成果
李伟华博士与团队成功研发出名为LLM-BotGuard的新型检测系统,旨在识别由大型语言模型驱动的社交机器人。该系统综合利用语言特征、元数据与账户交互模式,并融合专家混合网络与图神经网络技术,实验证明其检测效果显著优于现有模型,为应对生成式AI带来的虚假信息与欺诈问题提供了有效方案,研究成果已获权威期刊《IEEE Transactions on Computational Social Systems》发表。
李博士访谈
问题1:开发 LLM-BotGuard 的初衷是什么?是为了解决哪些问题?
李博士:LLM-BotGuard 的初衷,旨在检测“新一代”LLM 驱动机器人,提升用户获取信息的可靠性与平台的安全防护能力,并重点解决三件事。
识别难:区分“高质量但非真人”的生成内容与真实用户表达;
渗透快:及时发现跨账号协同、话术模板复用与节律性扩散等“集群化”操控;
成本高:在不依赖大量标注的前提下,实现可迁移的近实时检测与预警。
简言之,我们要把从“像人说话”进化为“像群体行动”的 LLM 机器人揪出来,并且让平台方看得懂、用得起、跑得动。
问题2:LLM-BotGuard 与其他模型在检测 AI 文本方面有何不同?它为什么更有效?
李博士:LLM-BotGuard 的检测框架包含三个关键环节:首先,融合语言特征与账户元数据,构建多源画像;继而,借助MoE门控网络,将特征路由至专精传统或LLM机器人的专家模块进行处理;最终,采用GraphSAGE聚合社交关系,并联合前序特征进行综合判别,从而实现对高仿真机器人的有效识别。
问题3:AUT 为这项研究提供了哪些支持?学校是如何推动 AI 和数据科学创新的?
李博士:AUT为LLM-BotGuard研究提供了多维度支持:
人才与算力:设立研究助理岗位,配备GPU集群与数据合规支持,确保研发基础。
合作与影响力:推动跨校及国际合作,通过联合研讨与访学引入专家,提升研究水平。
成果与转化:通过AUT Ventures提供知识产权评估与商业化辅导,清晰规划落地路径。
问题4:这项研究如何体现AUT在人工智能、网络安全或社会影响力方面的优势?
李博士:该研究是AUT在AI与网络安全领域综合实力的体现:技术上展示了融合前沿AI方法构建可信框架的硬实力;社会价值上直面生成式攻击的治理难题,彰显公益影响力;并通过跨国合作与AUT Ventures,形成了从学术创新到商业落地的完整生态闭环。
问题5:是否计划通过 AUT 与企业或高校的合作,推广或应用 LLM-BotGuard?
李博士:本项目正通过校企合作与成果转化两条主线进行推广:
学术合作:已与塔斯马尼亚大学、澳门城市大学建立长期合作,通过联合举办研讨会、共同指导博士生及开展短期访学,在LLM机器人识别等方向进行深度人才与科研协同。
商业转化:由AUT Ventures主导,计划通过技术授权与行业试点(PoC)模式,为社交平台及风控领域提供可插拔的API/SDK与演示原型,同时完善知识产权与合规材料,为后续规模化部署奠定基础。