先做个广告:如需代注册ChatGPT或充值 GPT4.0会员(plus),请添加站长微信:gptchongzhi
这次OpenAI又放大招了!
推荐使用GPT中文版,国内可直接访问:https://ai.gpt86.top
在他们为期12个工作日的线上新品和新技术发布活动中,第九天终于迎来了重磅消息:OpenAI的最强推理模型o1正式开放给开发者,还把语音类App相关API升级了,加入了更便宜的新款GPT-4o版本。
o1正式开放API,但有门槛
从12月17日(美东时间周二)开始,OpenAI通过API向部分开发者推出o1。
不过,这次开放并不是对所有开发者敞开,而是需要满足一定条件才能使用:
账号需要在OpenAI平台上消费至少1000美元 注册时间超过30天
虽然门槛稍高,但这也意味着有实力的开发者能率先用上这款“真·顶尖推理模型”,无论是打造新应用还是优化现有的App和工作流程,都能充分发挥o1的强大能力。
“满血版”o1模型上线
其实,o1早在9月推出预览版时,就已经引起不小轰动。o1被称为首个具备“通用推理能力”的大模型,在测试化学、物理、生物等专业知识的GPQA-diamond基准中,得分78.3%,远超人类博士专家的69.7%。此外,在美国数学邀请赛(AIME)中,o1的正确率达到了83.3%,吊打其前身GPT-4o。
这次API中上线的是“满血版”o1。
相比预览版,正式版o1速度提升了60%,推理准确率大幅提升,犯重大错误的频率降低了34%。在各种基准测试中,比如编码、数学等,o1的表现几乎是质的飞跃。例如数学相关测试AIME,分数从42提升到了79.2,进步惊人。
新功能让开发者更“好用”
除了性能上的提升,o1还加入了一些非常实用的新功能,比如:
结构化输出(Structured Outputs):支持生成固定格式的数据(比如JSON),对接外部系统更方便; 函数调用(Function Calling):简化了模型与API和数据库的交互; 视觉推理能力(Vision Capabilities):可以处理视觉输入,进行推理,为制造业、科学研究和编程提供了更多应用场景。
此外,开发者还可以通过一个新参数“reasoning_effort”调整模型的行为,根据具体需求选择更高性能还是更低响应时间,灵活度更高。
除此之外,OpenAI还推出了全新的偏好微调技术(Preference Fine-Tuning),这是这次发布中的另一大亮点。
这个技术通过直接偏好优化算法(Direct Preference Optimization, DPO),让模型可以更好地适应用户的个性化需求和风格。开发者可以通过比较模型对问题的响应,对其进行精细调整,教会模型区分“首选”答案和“非首选”答案。
简单来说,就是可以更精准地微调模型,让它更加符合你的期望。
定价:更强的模型,也更贵
o1毕竟是个大模型,算力需求也高,所以API的定价不低。
每处理75万个输入token收费15美元,生成75万个输出token收费60美元,比起非推理模型GPT-4o高了三到四倍。
不过值得一提的是,正式版o1相比预览版更加高效,每次推理使用的token减少了60%,延迟也更低。
Realtime API降本升级
除了o1的API开放,OpenAI这次还对Realtime API进行了大升级,这个API专注于语音助手和实时翻译工具等低延迟应用。
这次升级加入了两款新版模型:GPT-4o和GPT-4o mini,不仅性能更稳定,还便宜了很多。
这两款模型主打低成本高效率,比如GPT-4o的音频处理费用直接降低了60%,而缓存音频输入的定价更是大降87.5%。GPT-4o mini的定价则更划算,输入token只需10美元/百万个,输出token则是20美元/百万个,对中小开发者特别友好。
更有意思的是,OpenAI还把WebRTC集成到了Realtime API中,这意味着你可以用这个API直接做实时语音交互了!比如语音助手、实时翻译这些应用,现在只需几行JavaScript代码就能搞定,超方便。
更关键的是,WebRTC自带音频流支持、噪声抑制、网络拥塞控制,哪怕网络环境差一些也不怕。
最后有话说
总的来说,这次更新让AI模型更强大、更高效,同时对开发者也更加友好。对于企业来说,现在就是入局这些新功能的好时机啦!
如果有需要升级注册ChatGPT&Claude的,请加下面微信
本文链接:https://daichong.cc/gpt4_gpt5_566.html
GPTsGPT Builder创建ChatGPT插件gptsGPT-5官网OpenAI sora官网OpenAI sora视频sora视频GPT-4.5 TurboGPT4.5官网