邱志刚:AI时代如何筑牢数字信任基石?【2025年度AI金融创新发展论坛】
2026年1月18日,2025年度AI金融创新发展论坛暨第八届「司库品牌计划」发布仪式在人民日报社新媒体大厦成功举办。本次论坛由WEMONEY研究室主办,人民阅读提供媒体支持,中国社科院金融研究所金融科技研究室、中央财经大学中国互联网经济研究院、中国人民大学深圳金融高等研究院提供学术支持。论坛以“智驭未来:AI重塑金融新生态”为主题,来自学界、机构的众多行业精英共同探讨AI金融的创新路径、安全边界与未来蓝图。
会上,中国人民大学深圳金融高等研究院副院长邱志刚发表主旨演讲,聚焦“数字信任”核心议题,分享了所在机构近几年来在数字信任领域的探索与思考。
邱志刚指出,AI的核心在于对数据的分析,从早期的弱人工智能图像识别、推荐系统,到如今的大模型应用,数据始终是底层支撑。大数据时代,大模型不断生成数据,而每个人的日常行为也在持续创造数据,这些数据又会成为新的训练集反哺AI,形成数据与AI的循环赋能体系。
在这样的背景下,数字信任的重要性愈发凸显。一方面,政府工作报告已提及“数字信任”概念;另一方面,埃森哲的调研数据显示,中国企业若能加强数字信任建设,可避免高达5.3万亿的损失。
结合自身研究,邱志刚将数字信任拆解为三层核心内涵:
第一,数据的收集与使用。日常生活中,用户下载APP时鲜少会仔细阅读个人隐私条例,往往在不知情的情况下完成了数据授权,既不清楚自身数据被收集的具体内容,也不了解数据的最终用途。邱志刚以某消费金融APP要求共享通讯录为例指出,该平台本意是通过通讯录识别用户是否与失信人群存在频繁交流,但用户对这一数据使用目的毫不知情。
这暴露出Web2.0时代的核心问题:用户作为数据生产者,却对数据的流转与应用缺乏掌控力,平台存在滥用数据的潜在风险。对此,邱志刚提出,Web3.0时代提升数字信任的关键路径之一,可以借鉴经济学中的“合约理论”,推动平台与消费者签订明确的数据合同,清晰界定数据使用的权利与责任,实现数据收集规则透明化、使用用途监督化。
第二,数据自身质量的问题。邱志刚认为,早期人们对消费者的评价非常信任,但是今天如果看到一个好评,看到某家店5.0的评分,消费者是否真的相信呢?可能很多人会认为是水军。在传统的金融学里面,噪声是没有价值。但是今天,商家很多时候会花钱买噪声、花钱雇水军。以某头部基金社交媒体平台为例,其人工智能推荐系统往往倾向于向投资亏损的用户推送悲观信息。这是因为推荐系统本身是“数据中性”的——若用户曾发表过悲观言论,系统便容易推断其对此类内容有偏好。这种现象在经济学中常被称为“信息茧房”。由此引出一个值得深思的问题:在社交媒体上所接收的推荐信息,是否真的提供了有价值的内容?
邱志刚团队依托某头部基金社交媒体数据的研究也印证了这一问题:该平台12个月内累计产生28万余条帖子,平均每人发帖9条,而最高产的用户单月发帖量高达10268条。这些帖子中,既有半导体行业分析等有价值的信息,也夹杂着“哈哈哈,我不该装”“老公,你在哪里?”等无意义内容。进一步分类研究发现,只有观点类和问题类这类主动发帖能为投资者带来正向收益,而评论类、回答类帖子反而会产生负向影响。
第三,数据的生成者。网络上的海量数据,有相当一部分出自社交媒体大V之手。所谓网络大V,是指在社交平台拥有大量粉丝、具备较高影响力的用户,这类用户往往凭借专业见解、独特内容或高频互动获得关注,其言论甚至能影响舆论走向、推动话题发酵。
比如某基金平台就有这样一位大V,外界普遍认为其投资能力不俗,但事实果真如此吗?大V发布的内容,真的是为了帮助普通投资者获取有效信息吗?此外,大V本身是否存在行为偏差?毕竟人非圣贤,孰能无过。从大样本数据来看,粉丝超过100的大V单月平均收益为大概-1%,并未盈利,其Alpha值同样为负。这意味着,即便大V发布了海量帖子,自身也未能实现盈利,其粉丝同样没能赚到钱。
进一步观察可以发现,粉丝存在明显的行为偏差:大V近期收益越好、发帖越频繁,就越容易吸引粉丝关注。而大V自身也存在行为偏差,具体表现为“报喜不报忧”——仅在收益向好时分享成果,收益不佳时则缄口不言,但其发帖总量始终处于高位。
若将这类带有偏差的数据纳入AI训练集,AI是否会产生行为学偏差?答案是肯定的。训练数据本身源于人类的偏差行为,以此为基础训练出的AI,输出结果自然也会带有偏差。
邱志刚表示,数字信任可以分成收集与使用、数据本身以及生产者这三层,将来可能需要一些交叉学科,包括法律、技术、经济学进行综合研究。他引用著名经济学家RobertMerton的话说:“创新就好像高铁和高速公路,需要有良好的基础设施(铁轨和公路)。当基础设施不完善时,可能比较好的方法是限速。”这也是今天监管逐步趋严的原因之一。


WEMONEY研究室








