前天写完《读可鲁,想花生》这篇日志后,我内心隐隐感觉哪里有些不妥,但当时却又想不出来。直到我重读《再见了,可鲁》这本书,在第16页看到如下文字:

        小狗们这时已经开始有各自明显的个性了。个头最大也最调皮的是 “昂”。肥肥胖胖、不太爱动,却有点粗暴的是 “北斗”。唯一一只小母狗娇小姐 “潘多拉”,有一身漂亮、整齐的像小小图案似的毛。接下来就是最内向的 “乔纳森” 了,这个乔纳森,即使在给它东西吃的时候,都会比别人慢上半拍。五只小狗当中,最后生下来的那只叫 “安得”,一看就知道它的性格跟乔纳森很相像,非常沉稳。……

        这时候我知道了问题所在。在《读可鲁,想花生》日志里,可鲁的兄弟姐妹的名字,被误写了。

        在写《读可鲁,想花生》前,我对豆包AI下了个指令,要求根据《再见了,可鲁》这本书简要总结导盲犬可鲁的一生。我特意要求,“要出现可鲁所接触过的一些人的名字。如:生父母(水户莲)、养父母(仁井勇、仁井三都子)以及教育之父(多和田悟),陪伴人渡边,以及它的幼名“乔那森”,以及可鲁另外4个兄弟姐妹的幼名)”。

        对于豆包生成的总结,我虽然看了,但还是疏忽了细节。从最后的结果来看,那次的豆包在使用体验上,给我一种盲目自信的胡言乱语感觉。

        后来我搜索网络信息,发现在互联网上有不少关于AI会一本正经地胡说八道”的讨论分析,看来在使用AI中确实会出现这样的状况,而且我的这次经历也绝非个案。在专业领域,AI“一本正经地胡说八道”这种现象被称为AI幻觉。“AI幻觉指的是AI会生成貌似合理连贯,但同输入问题意图不一致、同世界知识不一致、与现实或已知数据不符合或无法验证的内容。”近日,长期从事自然语言处理、大模型和人工智能研究的哈尔滨工业大学(深圳)特聘校长助理张民教授在接受科技日报记者采访时表示。

        为何AI会出现幻觉?网上众说纷纭,但几乎都是偏向于AI技术的不成熟。“从技术原理上看,AI幻觉多由于AI对知识的记忆不足、理解能力不足、训练方式固有的弊端及模型本身技术的局限性导致。”张民坦言,AI幻觉会造成知识偏见与误解,甚至有时会导致安全风险、伦理和道德问题。在接下来的访谈中,张民教授提及了该问题的解决方案,但也表示近期内该问题尚且无法完全避免。

        这几天张文宏教授因发表拒绝把AI引入医院病历系统言论,而被推上舆论浪尖。有网友阐述AI引入医院病历系统的好处,也有网友剖析其弊端。在《张文宏怒拒AI进病历系统,不是保守,是戳破了医疗界最大的隐患》这篇新闻里,作者说到,“这年头,不少行业都在追AI风口,医疗领域也想靠技术提效,这本无可厚非。但医疗的本质是治病救人,不是简单的数据匹配。效率再高,也不能以牺牲安全为代价;技术再先进,也替代不了医生的临床经验和人文关怀。张文宏的拒绝,从来不是阻碍技术进步,而是守住医疗的底线。别让AI的便利,毁掉医生的看家本领,更别让患者的生命,成为技术试错的牺牲品。

        我的看法相对简单——连总结一本如此出名的书,AI都会出现错误(我感觉豆包AI根本就没读过《再见了,可鲁》这本书的原文,只是检索了这本书的书评,所以对于可鲁的兄弟姐妹的名字,它才会胡编乱造一通),把AI引入医院病历系统这件事,还是应该慎重才对。

        当然,在方法上也可以再激进些:先将医院的病历系统,分离出一个副本,然后在这个副本系统上全面引入AI,让AI深度参与或主导病历的分析,最后么,让那些和张文宏教授唱反调,支持AI进病历系统的网友,当做实验小白鼠,去试试最终的诊治效果如何。

62328a1218be1f162924d469831e1454.jpg