关于GPT5API
虽然GPT-5大家失望较多,但其实还是亮点许多了。
除非你真以为在transformer 的地基之能直接长出AGI 出来。
至于失望的原因,很大一部分是先前Sam Altman 的眩晕、瘫软吹得有些过了头。
但在昨晚边看发布会边看API文档时,我就发现还是有许多值得尝试的,甚至每个特性、每个新出现的参数,都值得详细研究、实践、花钱去调用玩一玩。
可以相信,这API 里的每一个新feature 都不会是KPI 驱动下放出来的。
现在瓜吃完了,该干正事了——得用起来了。
不过,几个文档结合着看有亿点点乱,要快超出了我的context了……
导致我即将产生幻觉。

好在OpenAI 的许多文档都有个“ Copy Page ”的按钮能复制出完整的markdown内容,作为给LLM的prompt,随你怎么问了就。
这个真得点赞 。
于是我就让AI 按我的要求筛选、整理和突出了下,方便自己看,也顺便分享出来当作笔记了。
模型选择指南
首先是三个模型的定位差异,这能用于快速决定该用哪个模型,避免 大材小用 或者 能力不足白花 钱 。

简单来说,如果你在做Agent相关的复杂任务,比如自动化代码审查、多步骤决策系统,那么, gpt-5是首选 。
如果是做客服机器人、内容生成这类需要平衡成本和效果的场景, gpt-5-mini很合适 。
而对于大批量的文本分类、简单的数据提取任务, gpt-5-nano能以极低的成本、极快的速度完成任务 。
输入输出能力对比
三个模型在功能支持上有些微妙的差异:
特性
GPT-5
GPT-5 mini
GPT-5 nano
文本输入
✅
✅
✅
图像输入
✅
✅
✅
文件输入
✅
❌
❌
文件输出
✅
❌
❌
Distillation
✅
✅
❌
Predicted outputs
✅
✅
❌
注意 :只有gpt-5支持文件的输入输出。
你可能会想:如果我的应用需要处理PDF、Excel这类文件,那是不是就没办法省钱了?
当然不是,你截图或其他方式处理为图片或文本后再用啊!OpenAI 自然也是这样做的。
而nano虽然最便宜,但不支持Distillation(蒸馏,毕竟太小了)和Predicted outputs这两个高级玩法。
价格与速率
价格永远是开发者最关心的,但别忘了看速率限制。
先来看价格(每百万tokens):
价格类型
GPT-5
GPT-5 mini
GPT-5 nano
输入价格
$1.25
$0.25
$0.05
缓存输入价格
$0.13
$0.03
$0.01
输出价格
$10.00
$2.00
$0.40
划重点 :缓存输入价格能省90%的成本。
而且, 速度也会更快。
至于怎么能增加缓存命中……
简单来说: 重复的放前面、变化的放后面。
举例来说:用AB(第一次调用)、AC(第二次调用)而不是BA(第一次调用)、CA(第二次调用),前者的第二次会命中,命中率是tokens_A / (tokens_A + tokens_C), 后者命中率是0.
A 可以是:固定的系统提示词、few-shot、RAG 内容、上下文……
详细原理则是:关于transformer 的QKV 计算……问AI 去吧,不是本文重点。
总之, 即使你不考虑省钱,也要考虑下速度啊。
当然,如果你用的中转站啥的,基本没这回事……
别问我为啥,问你的上级代理去吧。
另外,batch 调用也能打五折,离线场景可以用起来。
速率限制(TPM - Tokens Per Minute)
速率等级
GPT-5
GPT-5 mini
GPT-5 nano
Tier 1
30,000
200,000
200,000
Tier 2
450,000
2,000,000
2,000,000
Tier 3
800,000
4,000,000
4,000,000
Tier 4
2,000,000
10,000,000
10,000,000
Tier 5
40,000,000
180,000,000
180,000,000
我现在还只是tier 3,足够我日常用了倒是(其实我薅的免费用量也基本够用)。
上下文窗口
三个模型的上下文长度完全一致:40万的上下文窗口,12.8万的最大输出。
项目
所有GPT-5模型
Context Window
400,000 tokens
Max Output Tokens
128,000 tokens
推理努力级别
reasoning.effort 是GPT-5最需要关注的新参数,将直接影响模型的思考深度和响应速度。

这特别适合需要精细控制的场景,代码示例如下:
from openai import OpenAIclient = OpenAI()response = client.responses.create( model="gpt-5", input="How much gold would it take to coat the Statue of Liberty in a 1mm layer?", reasoning={ "effort": "minimal" })print(response)
比如,如果你在做 实时代码补全 , minimal 级别能提供极快的响应;
但如果是在做 数学证明或复杂的业务逻辑分析 , high 级别会给出更可靠的结果。
做在线教育的朋友可能要注意 ,对于不同难度的题目,动态调整这个参数能在用户体验和成本之间找到最佳平衡。
输出详细程度
verbosity 参数可以控制模型的话痨程度,这对优化用户体验和降低成本都很重要。
级别
特点
使用场景
low
简洁答案,最少注释
SQL查询、简单代码生成
medium(默认)
平衡的输出长度
通用对话和任务
high
详尽的解释和结构化代码
文档解释、大规模代码重构
代码示例如下:
from openai import OpenAIclient = OpenAI()response = client.responses.create( model="gpt-5", input="What is the answer to the ultimate question of life, the universe, and everything?", text={ "verbosity": "low" })print(response)
如果只是想快速生成一个SQL查询时, low 级别能给出干净的代码;
而当用户在学习或需要详细文档时, high 级别会提供带有详细注释的代码。
这会比通过prompt engineering来控制输出长度要稳定和可控得多。
新增功能
这可以说是 GPT-5 在工具调用和输出控制上的重大改进了。

这个 自定义工具 可以给开发工作带来更多的灵活性。
之前的function calling在这里,只能传个JSON,但现在则可以直接传个任意文本就可了,SQL查询、Shell命令、配置文件,甚至是整段代码都可以。
{ "type": "custom", "name": "code_exec", "description": "Executes arbitrary python code",}
CFG支持 则解决了输出格式控制的各种麻烦问题。
现在可以用Lark语法定义一个严格的输出格式,模型就会确保输出符合你的语法规则。
这对需要生成DSL、配置文件或特定格式代码的场景 极其有用 。
而 Preambles功能 让模型在调用工具前先解释意图,这不仅提高了可解释性,还能帮助调试和审计。
这可以 大大提升系统可调优空间 ,不再两眼一摸黑,不知是bug,feature 还是幻觉了。
其他功能一览
所有模型都支持如下核心功能:
Streaming :流式输出,提升用户体验
Function calling :工具调用,扩展模型能力
Structured outputs :结构化输出,确保格式正确
Fine-tuning :微调,适配特定场景
模型迁移建议
这里该 划重点 了。
如果你正在使用旧模型,下面这张表可以告诉你如何平滑迁移:

迁移时可以使用OpenAI提供的 提示词优化工具 ,它能自动根据GPT-5的特性调整提示词,省去大量试错时间。

我大概试了下,好不好用没测,prompt 的token 倒是变长了好多倍……
我可不会轻易上当。
总的来说,GPT-5虽然没有达到真正的AGI,但它在API设计、参数控制、工具调用等方面还是下了不少功夫,值得都试一试。
这些新特性提供了更精细的控制能力,用好了可以在成本、速度和效果之间找到最佳平衡点。
版权声明:
作者:shadowrocket
链接:https://www.shadowrocket9.top/120.html
来源:Shadowrocket官网
文章版权归作者所有,未经允许请勿转载。


共有 0 条评论