先做个广告:如需代注册GPT4或充值 GPT4.0会员(plus),请添加站长微信:gptchongzhi
OpenAI发布了其最强大的人工智能模型GPT-4o。这款新模型背后的厂商是流行的ChatGPT,此次发布预示着其新语言模型的问世。GPT-4o中的“o”代表“omni”,标志着该模型可处理文字、语音及视频。这款新模型在前任GPT-4 Turbo的基础上有所改进,拥有更强大的功能、更快的处理速度以及为用户节省成本的优点。
推荐使用GPT中文版,国内可直接访问:https://ai.gpt86.top
GPT-4o将驱动OpenAI的ChatGPT聊天机器人和API,使开发者能够利用模型的功能。新模型可供免费用户和付费用户使用,一些功能会立即推出,其它功能则会在接下来的几周内推出。
这款新模型在处理速度上有显著的提升,成本减少50%,速率限制提高5倍,并且支持超过50种语言。OpenAI计划逐步将新模型推出给ChatGPT Plus和Team用户,企业版的推出“即将到来”。该公司还开始向ChatGPT Free用户推出新模型,但使用限制在周一已经开始实施了。
在接下来的几周里,OpenAI将为ChatGPT引入改善的语音和视频功能。ChatGPT的语音功能可能会加剧与其他语音助手的竞争,如Apple的Siri、Alphabet的Google和Amazon的Alexa。用户现在可以在请求期间中断ChatGPT,以模拟更自然的对话。
GPT-4o大大增强了OpenAI的AI-powered chatbot,即ChatGPT的体验。该平台一直提供一种语音模式,该模式使用文本转语音模型对聊天机器人的响应进行转录,但GPT-4o对此进行了超级增强,使得用户可以像与助手交互一样与ChatGPT进行交互。该模型提供“实时”反应,并且甚至可以捕捉到用户声音中的细微差别,从而产生在“一系列不同的感情风格”(包括语调)中的反应。
GPT-4o也升级了ChatGPT的视觉功能。考虑到一张照片 — 或者一个桌面屏幕 — ChatGPT现在可以迅速回答相关问题,例如从“这个软件代码中正在进行什么?”到“这个人穿的是哪个品牌的衬衫?”。这些功能在未来将进一步演变,比如,这张模型可能让ChatGPT“看”一场直播的体育赛事并解释规则。
GPT-4o同样是更具多语言性的,它在大约50种语言中的性能都有所提升。在OpenAI的API和微软的Azure OpenAI服务中,GPT-4o速度是GPT-4 Turbo的两倍,价格是GPT-4 Turbo的一半,而且速率限制比GPT-4 Turbo更高。
在演示中,GPT-4o显示出它可以通过听用户的呼吸来理解用户的情绪。当它注意到用户感到压力时,它会提供建议帮助他们放松。这款模型还展示了它可以进行多语言交谈,自动翻译并回答问题。
OpenAI的这些公告展示了AI世界是如何快速前进的。这些模型的改进以及他们的工作速度,以及将多模式的能力集成到一个全方位接口的能力,都将改变人们如何与这些工具互动。
本文链接:https://gpt-4o.net/chatgpt/478.html
GPT-4O后续影响OpenAI GPT-40发布QpenAI发布GPT-4o全能模型GPT-40penAl重磅发布GPT-40GPT-40免费试用
网友评论