太震撼了啊,沒等到GPT-5,卻迎來了 OpenAI 新旗艦模型GPT-4o!
5月14日凌晨,GPT-4o 在 OpenAI 官網正式發布了,GPT-4o是一個多模態模型,能夠處理視頻、音頻和文本數據,具有實時推理的能力。它能夠執行多種任務,包括實時翻譯、唱歌、做數學題和講笑話等。GPT-4o的語音響應時間非常短,平均響應時間為320毫秒,并且在MMLU評測中創下了88.7%的新高分,超過了其他市面上的大模型。
這是正兒八經的原生多模態,更重要的是可以實時推理音頻、視覺和文本,注意這里是實時,實時,實時,推理的不是文本,是音頻!視覺!
某種程度上,AGI 已然成為現實,我們即將迎來一個新的時代啊!