×

在当今科技领域,AI无疑是最热门的话题之一。然而,正如《听筒Tech》所指出的,尽管AI已经火爆全球,但依然有不少人对它的使用存在置疑。

从晓姐的经历来看,作为一名文字工作者,她在大模型刚推出时就尝试使用,但始终无法完全信任。大模型初期存在资料更新不及时的问题,后来虽然习惯使用,却发现其给出的数据和时间很少标注信息来源和出处,内容更像是结论和观点,一旦出现细节和事实错误,对文字创作是致命打击。这并非个例,越来越多的博主警示网友要警惕AI幻觉。Vectara平台的数据显示,市场上的AI大模型均有幻觉率,如OpenAI – o3有0.8%的幻觉率,DeepSeek – V3达到3.9%,之前甚至高达30%。从技术层面解释,AI模型在训练过程中会压缩数万亿个单词间的关系,重构时可能会使2%的内容生成不准确或虚假信息。

在不同行业中,都能发现AI使用的问题。高校任职的林哥发现学生使用AI生成的作业和论文存在引用张冠李戴、凭空捏造的情况;95后家装设计师小屈发现AI绘图不够精准;影视行业从业者郭哥发现AI生成的视频存在交互失灵、物理引擎失效等问题。而且,AI在回应严肃知识性问题时,可能会凭空编造事实、杜撰文献,如科普作家河森堡所经历的那样。

AI幻觉带来的影响不容小觑。世界经济论坛发布的《2025年全球风险报告》指出,错误和虚假信息是2025年全球面临的五大风险之一。美国律师因轻信ChatGPT引用不存在的法律案例,医学领域中AI幻觉提供的错误诊断和治疗建议可能危及患者生命。

虽然有一些降低AI幻觉的方法,如企业可通过预训练、微调和推理三个层级来解决,例如在公司负责AI客服时,可通过“提示词+知识库”防止AI输出幻觉,在通用大模型回复效果不好时,企业可微调专属大模型,或者使用RAG增强检索。但对于普通用户来说,目前没有特别有效的解决办法,只能在AI推理阶段提供更详细的信息。

不过,现阶段AI还无法真正取代人类。正如张雪峰所说,人们所在的行当不止是打破信息差,还在提供情绪价值,而且大模型只会有一些公开信息,人们能掌握网上非公开的信息,并且人类的深度思考能引发创新,这些都是现阶段人类存在的价值和意义所在。

总的来说,AI虽然强大,但目前存在的幻觉问题使其不能被完全信任。在使用AI时,我们要保持谨慎态度,尤其是在专业领域。未来,随着技术的发展,或许AI能够解决幻觉问题,但在那之前,我们需要充分认识到它的局限性,合理利用其辅助功能,同时发挥人类自身的优势。

作者

crushend@qq.com

相关文章

从独特视角看AI发展的潜藏脉络与前景

由于原始内容为空,在此我们基于AI发展这一宽...

读出全部

AI技术突破:多元领域进展与未来走向

在科技飞速发展的当下,AI技术无疑是最耀眼的...

读出全部

2025年AI发展:多维度突破与挑战并存

近年来,人工智能(AI)技术发展迅猛,深刻改...

读出全部

2025,AI技术突破引领的行业变革与未来走向

在当今科技飞速发展的时代,AI技术无疑是最为...

读出全部

AI 技术突破:现状、影响与未来走向

近期,AI技术领域呈现出一片繁荣景象,多项突...

读出全部