央廣網(wǎng)北京5月15日消息(記者牛谷月)北京時(shí)間15日凌晨1點(diǎn),谷歌召開年度I/O開發(fā)者大會(huì)。根據(jù)谷歌官方統(tǒng)計(jì),在這場(chǎng)110分鐘演講中,谷歌CEO桑達(dá)爾·皮查伊(SundarPichai)提及AI的次數(shù)高達(dá)121次,同時(shí)推出了一系列以AI為核心的產(chǎn)品和服務(wù)。而就在前一天,ChatGPT的開發(fā)公司OpenAI的首席技術(shù)官米拉·穆拉提(MiraMurati)進(jìn)入直播室,發(fā)布了OpenAI的春季大更新,包括桌面版本的ChatGPT,以及可實(shí)時(shí)進(jìn)行音頻、視覺和文本推理的最新旗艦大模型GPT-4o。Google新發(fā)布的“AI全家桶”,更被視作是對(duì)GPT-4o的回?fù)艉汀敖邪濉薄?/FONT>
人類對(duì)AI的探索如火如荼,人機(jī)交互再次大邁步,打破了傳統(tǒng)“語音助手”的桎梏。大模型就像給AI裝上了“眼睛耳朵嘴巴”,從此你的快樂傷悲它都能“體會(huì)”。未來已經(jīng)來臨了嗎?
“讀取人類情緒”——向更自然的人機(jī)交互邁進(jìn)一步
在OpenAI的春季發(fā)布會(huì)上,雖然大家沒能見到GPT-5,但GPT-4o的出現(xiàn)仍然驚艷。據(jù)OpenAI官網(wǎng)介紹,GPT-4o中的“o”代表“Omni”,這是一個(gè)基于GPT-4之上的多模態(tài)大模型。
OpenAI稱,它向更自然的人機(jī)交互邁進(jìn)了一步,因?yàn)樗邮芪谋?、音頻和圖像的任意組合作為輸入內(nèi)容,并生成文本、音頻和圖像的任意組合輸出內(nèi)容。
值得注意的是,GPT-4o能夠與用戶進(jìn)行多樣化的語氣交互,并精準(zhǔn)捕捉到用戶的情緒變化。發(fā)布會(huì)上,OpenAI前沿研究部門主管陳信翰(MarkChen)讓GPT-4o聆聽他的呼吸,聊天機(jī)器人偵測(cè)到他急促的呼吸,并且建議他不要“像吸塵器那樣呼吸”,要放慢速度。隨后Mark深呼吸一次,GPT-4o表示這才是正確的呼吸方式。同時(shí),研究員巴雷特·佐夫(BarretZoph)還演示了GPT-4o是如何通過前置攝像頭觀察用戶的面部表情,分析其情緒的。
“GPT-4o不僅能夠理解用戶的語氣,還能做到恰到好處的反應(yīng)?!盌CCI互聯(lián)網(wǎng)研究院院長(zhǎng)劉興亮感慨道,“想象一下,GPT-4o在你緊張的時(shí)候能夠安慰你,讓你深呼吸,甚至開個(gè)小玩笑緩解你的壓力。這種情感識(shí)別能力使得人機(jī)交互變得更加自然和親切,仿佛我們身邊有了一個(gè)懂我們心情的貼心朋友。”
而在一天后的谷歌I/O開發(fā)者大會(huì)上,谷歌緊跟其后,發(fā)布了一款名為ProjectAstra的谷歌AI助手。這款通用模型通過智能手機(jī)的攝像頭捕捉并分析周圍環(huán)境,還能與用戶進(jìn)行實(shí)時(shí)對(duì)話。在演示視頻中,用戶手持手機(jī),將攝像頭對(duì)準(zhǔn)辦公室的不同角落,并通過語言與系統(tǒng)進(jìn)行交互。例如,當(dāng)用戶發(fā)出指令“請(qǐng)告訴我智能眼鏡在哪里”時(shí),Astra能夠迅速識(shí)別物體,并與用戶進(jìn)行實(shí)時(shí)的語音交流。同時(shí),當(dāng)用戶看向窗外,智能助手立刻就說出了用戶的詳細(xì)地址:“這兒顯然是倫敦的國(guó)王十字路口區(qū)域?!彼部梢岳斫饫L畫和圖像,如可以對(duì)一個(gè)寫在白板上的系統(tǒng)流程圖給出意見“在服務(wù)器和數(shù)據(jù)庫(kù)間添加緩存可以提高速度”。
DeepMind聯(lián)合創(chuàng)始人兼首席執(zhí)行官德米斯·哈薩比斯(DemisHassabis)稱,ProjectAstra是自己期待了幾十年的AI助手的雛形,是通用AI的未來,“AI個(gè)人助理可以通過連續(xù)編碼視頻幀、將視頻和語音輸入組合到事件時(shí)間線中,并緩存這些信息以進(jìn)行有效回憶,從而更快地處理信息?!?/FONT>
劉興亮指出:“雖然OpenAI的GPT-4o在自然語言處理能力上表現(xiàn)強(qiáng)大,但谷歌在多模態(tài)理解、數(shù)據(jù)豐富性和開發(fā)者支持方面也展現(xiàn)了強(qiáng)勁的競(jìng)爭(zhēng)力。兩者在各自擅長(zhǎng)的領(lǐng)域均有顯著優(yōu)勢(shì),并不斷推動(dòng)人工智能技術(shù)的發(fā)展。”
快速響應(yīng)!——接近人類對(duì)話時(shí)的響應(yīng)時(shí)間
從“你的快樂傷悲它能體會(huì)”到“你的快樂傷悲它能體會(huì)并給出及時(shí)回應(yīng)”,人工智能大模型的響應(yīng)時(shí)間的縮短讓人機(jī)交互更加絲滑。
在OpenAI發(fā)布會(huì)上,人們見到了GPT-4o更快的響應(yīng)速度:能夠在短至232毫秒內(nèi)響應(yīng)音頻輸入,平均響應(yīng)時(shí)間為320毫秒,與人類在對(duì)話中的反應(yīng)速度幾乎一致?!拔覀兛梢哉fGPT-4o是AI界的‘閃電俠’,速度快到令人發(fā)指。”劉興亮分析,“相比之下,傳統(tǒng)語音助手如Siri、Alexa以及各種‘同學(xué)們’在處理語音輸入時(shí),需要經(jīng)過繁瑣的音頻轉(zhuǎn)文本再轉(zhuǎn)回音頻的過程。而GPT-4o通過端到端的訓(xùn)練,直接處理所有輸入和輸出,實(shí)現(xiàn)了真正的毫秒級(jí)響應(yīng)。”
記者了解到,在GPT-4o之前,使用ChatGPT的語音模式時(shí),需要多個(gè)模型的接力處理:先將音頻轉(zhuǎn)換為文本,再進(jìn)行“輸入并輸出文本”的處理,最后再將文本轉(zhuǎn)換回音頻。這種處理方式常導(dǎo)致信息的大量丟失,例如無法捕捉到語調(diào)、識(shí)別多個(gè)說話者或背景噪音,也無法生成笑聲、歌唱或其他情感表達(dá)。而GPT-4o是OpenAI的首個(gè)整合文本、視覺和音頻多模態(tài)輸入與輸出的模型。通過端到端地訓(xùn)練一個(gè)統(tǒng)一的新模型,實(shí)現(xiàn)了所有輸入和輸出的處理都由同一個(gè)神經(jīng)網(wǎng)絡(luò)完成。
360集團(tuán)創(chuàng)始人、董事長(zhǎng)周鴻祎在其發(fā)表的視頻中感慨:“這就帶來了一個(gè)全新的體驗(yàn),時(shí)延大概只有300毫秒左右,達(dá)到了人類和人類談話的響應(yīng)速度,這樣不僅能聽得懂你話里的情緒,在輸出回答的時(shí)候也可以伴隨著高興、悲傷、失望、興奮或者是更復(fù)雜的感情?!?/FONT>
國(guó)泰君安15日研報(bào)表示,GPT-4o作為基礎(chǔ)性工具為更多創(chuàng)新應(yīng)用提供了生長(zhǎng)土壤。研報(bào)認(rèn)為,對(duì)圖像和視頻的理解和高效的實(shí)時(shí)互動(dòng),一定程度對(duì)其他單一功能的AI軟件有替代的可能性,GPTStore有望推出更多便捷應(yīng)用,豐富應(yīng)用商城生態(tài)。同時(shí)隨著GPT在桌面端和移動(dòng)端的持續(xù)滲透,AI助理應(yīng)用有望更快普及,新型商業(yè)模式或?qū)⒅鸩酵瞥觥?/FONT> |