AI虽火,但使用需谨慎

在当今科技领域,AI无疑是最热门的话题之一。然而,正如《听筒Tech》所指出的,尽管AI已经火爆全球,但依然有不少人对它的使用存在置疑。
从晓姐的经历来看,作为一名文字工作者,她在大模型刚推出时就尝试使用,但始终无法完全信任。大模型初期存在资料更新不及时的问题,后来虽然习惯使用,却发现其给出的数据和时间很少标注信息来源和出处,内容更像是结论和观点,一旦出现细节和事实错误,对文字创作是致命打击。这并非个例,越来越多的博主警示网友要警惕AI幻觉。Vectara平台的数据显示,市场上的AI大模型均有幻觉率,如OpenAI – o3有0.8%的幻觉率,DeepSeek – V3达到3.9%,之前甚至高达30%。从技术层面解释,AI模型在训练过程中会压缩数万亿个单词间的关系,重构时可能会使2%的内容生成不准确或虚假信息。
在不同行业中,都能发现AI使用的问题。高校任职的林哥发现学生使用AI生成的作业和论文存在引用张冠李戴、凭空捏造的情况;95后家装设计师小屈发现AI绘图不够精准;影视行业从业者郭哥发现AI生成的视频存在交互失灵、物理引擎失效等问题。而且,AI在回应严肃知识性问题时,可能会凭空编造事实、杜撰文献,如科普作家河森堡所经历的那样。
AI幻觉带来的影响不容小觑。世界经济论坛发布的《2025年全球风险报告》指出,错误和虚假信息是2025年全球面临的五大风险之一。美国律师因轻信ChatGPT引用不存在的法律案例,医学领域中AI幻觉提供的错误诊断和治疗建议可能危及患者生命。
虽然有一些降低AI幻觉的方法,如企业可通过预训练、微调和推理三个层级来解决,例如在公司负责AI客服时,可通过“提示词+知识库”防止AI输出幻觉,在通用大模型回复效果不好时,企业可微调专属大模型,或者使用RAG增强检索。但对于普通用户来说,目前没有特别有效的解决办法,只能在AI推理阶段提供更详细的信息。
不过,现阶段AI还无法真正取代人类。正如张雪峰所说,人们所在的行当不止是打破信息差,还在提供情绪价值,而且大模型只会有一些公开信息,人们能掌握网上非公开的信息,并且人类的深度思考能引发创新,这些都是现阶段人类存在的价值和意义所在。
总的来说,AI虽然强大,但目前存在的幻觉问题使其不能被完全信任。在使用AI时,我们要保持谨慎态度,尤其是在专业领域。未来,随着技术的发展,或许AI能够解决幻觉问题,但在那之前,我们需要充分认识到它的局限性,合理利用其辅助功能,同时发挥人类自身的优势。
作者
crushend@qq.com