GPT(GenerativePre-trainedTransformer)是一种基于Transformer架构的大型语言模型,由OpenAI开发。它通过海量文本数据的预训练学习语言规律,能够生成连贯、上下文相关的文本。GPT的核心技术是自注意力机制,使其在处理长文本时保持高效。迭代版本如GPT-3拥有千亿参数,展现出强大的泛化能力,可完成问答、翻译、写作等多样化任务。其特点是无需任务特定训练,通过提示(prompt)即可适应新场景,但也存在生成错误或偏见的风险。GPT代表了自然语言处理领域的重大突破,推动了AI在对话、创作等领域的应用发展。
