转自:京报网_北京日报官方网站
#专家解读AI幻觉#【Deepseek爆火,专家解析六大原因】#专家从两点分析AI无法代替人类#今年春节期间,国产AI软件DeepSeek全球爆火,@上游新闻 记者对DeepSeek的运用场景进行了调查和采访,该软件得到了多名用户的好评,同时也存在部分问题。
2月8日,上游新闻记者就此事采访了从事AI软件研发工作的专家高桓以及重庆大学大数据与软件学院软件工程系主任雷晏,他们从从业者和教学者的不同角度,分析了DeepSeek爆火原因、运用场景、未来趋势等网友最关心的话题。
在记者采访DeepSeek用户的过程中,教初中数学的余老师曾反馈用DeepSeek解答几何问题存在超纲的情况;记者在让DeepSeek撰写评论时,还发现DeepSeek在毫无采访的情况下,杜撰了多个采访对象和多项统计数据,这种以假乱真的答案可能会误导用户。
针对这一情况,雷晏进行了解读:“这种情况不仅仅是DeepSeek,其他AI软件也存在。目前的AI软件本质上仍是一个概率模型,不具备人类的思考能力,因此有时会输出错误的答案,而AI本身并不知道这些错误,这种现象被称作‘AI 幻觉’(hallucination),在大模型中较为常见。”
雷晏则从两点分析AI无法代替人类:“首先从技术上,当前AI发展已经遇到了瓶颈,随着规模法则和摩尔定律的极限临近,AI大模型的能力提升变得愈发困难,包括deepseek只是大幅加速了模型训练,但这并不意味着AI会无限发展。其次AI大模型依赖大量数据的训练,而人类创造的大部分知识已经用于训练现有模型,数据的枯竭将限制AI的进一步发展。”#有关AI的法律已经出现#(上游新闻记者 赵映骥)@上游新闻