前沿课·吴军讲GPT:剖析ChatGPT底层逻辑

作者头像
吾爱
2025/9/12 9:29:21 12,543 阅读
前沿课·吴军讲GPT:剖析ChatGPT底层逻辑

配套教学视频

【前沿课·吴军讲GPT:剖析ChatGPT底层逻辑】

在《前沿课·吴军讲GPT》中,计算机科学家吴军深入剖析了ChatGPT。ChatGPT背后是名为语言模型的数学模型,由吴军导师贾里尼克于1972年在IBM带领团队研发,最初用于语音识别,后拓展到机器翻译、计算机问答等领域。

吴军指出,ChatGPT强大的原因主要有三点。其一,计算量庞大,训练一次耗费的电量相当于3000辆特斯拉电动汽车跑到报废。其二,数据量巨大,需海量数据支撑。其三,如今训练语言模型的方法更为先进。例如,早期简单统计方法得到的模型并不准确,后来引入语法、主题、语义等信息,模型愈发复杂。像吴军曾做过有600万个参数的复杂语言模型,而第一版ChatGPT语言模型参数达2000亿个。

ChatGPT能处理两类问题。简单问题关于事实,如明星的出生地、出生日期等,有明确答案。复杂问题则体现其惊艳之处,它能整合信息,逻辑清晰地回答诸如“天为什么是蓝色的”这类问题,还能详细描述烤蛋糕的步骤。此外,ChatGPT在写作方面表现出色,像《华尔街日报》中文版90%的内容都由计算机生成。不过,ChatGPT也并非高深莫测,它依靠的数学模型早已存在,只是现今强大的计算能力让它能通过“蛮力计算”生成结果。同时,背后还有人工审核确保结果质量。

会员专享内容

对不起,会员才可查看!请注册
已注册,请登录

http://www.51wen66.com/TUSC/202509/i0i3t42q0i3.jpg