隨著OpenAI在2023年5月13日發佈其最新升級版人工智能技術模型GPT-4o,全球科技界再次為其創新能力所震驚。GPT-4o的主要提升,在於其"omnimodel"全能模型的設計,整合了文字、影像、音訊處理及口譯等多功能於一體,並將之前分散的功能結構化於同一平台上,極大提升了處理速度及反饋的具體性。
聊天機器人ChatGPT開發公司OpenAI,搶在Google I/O 2024開發者大會前,宣布推出新AI模型「GPT-4o」,能執行更逼真、流暢且即時的人機對話,還能融合文字與影像互動,在相關領域堪稱前所未見,此功能將免費提供,有望再次提升ChatGPT的領導地位。 GPT-4o的「o」代表omni、全能,可懂50種語言。OpenAI研究人員表示,GPT-4o的特殊之處,包括人類可隨時打斷機器人,無需輪到使用者才能講話,且AI回應即時...
一年一度的谷歌開發者大會,將在台灣時間15日凌晨1點登場,沒想到前一天,勁敵OpenAI先出招,推出全新語言模型「GPT-4o」,強調可用性大大提升,不但可以聽、可以看,能夠讀懂使用者的情緒,還能以適當的語氣回話,反應就像真人一樣逼真,而這個全新版本將開發所有人使用,包括沒有付費的用戶!
美國OpenAI發布最新生成式AI模型GPT-4o,不僅可以判讀影像給予反饋,也能用帶有豐富情緒的語氣和人類流暢對話。不過AI科技持續引發質疑,IMF總裁日前就警告,AI恐將奪取先進經濟體6成的工作。
ChatGPT又進化了,OpenAI全新推出的GPT-4o人工智慧模型,能像真人般對答如流,因為它只需最短232毫秒,平均320毫秒時間,就能針對音訊輸入內容做出回應,和一般人在對話中的回應時間...
ChatGPT又進化了,OpenAI全新推出的GPT-4o人工智慧模型,能像真人般對答如流,因為它只需最短232毫秒,平均320毫秒時間,就能針對音訊輸入內容做出回應,和一般人在對話中的回應時間...
[Newtalk新聞] 美國人工智慧公司OpenAI周一(13日)進行發表會,推出自家旗艦AI模型升級的新版本「GPT-4o」,反應速度更上一層樓,還有更新的語音助理功能,甚至在發表會中當場即興唱歌。 OpenAI春季新品發表會公佈最新模型GPT-4o的核心變化,OpenAI技術長穆拉蒂(Mira Murati)表示,最新的模型能看文本、圖片,還可以拍環境給它看。甚至能讀懂情緒,透過語音與人類即時互動。 值得注意的是,新的語音功能...
聊天機器人ChatGPT開發公司OpenAI,搶在Google I/O 2024開發者大會之前,5月13日宣布推出新AI模型「GPT-4o」,能夠進行十分逼真的人機對話,即時回應之外,還能融合文字與影像互動,在相關領域堪稱前所未見,此功能將免費提供,有望再次提升ChatGPT相關領域的領導地位。展示活動上,以溫暖女聲呈現的聊天機器人與研究人員流利對話、語氣自然。 OpenAI研究人員表示,「GPT-4o」的特殊之處,包括人類可隨時打斷機器人...
美國人工智慧(AI)公司OpenAI宣布推出更高性能、更高效的AI技術模式GPT-4o,除了能與AI進行更逼真對話,還能進行文字影像的跨文本互動,甚至能輕鬆解答「寫在紙上的數學題」,全新功能將開放給所
[周刊王CTWANT] 綜合外媒報導,OpenAI發表新款AI模型「GPT-4o」,該模型能讓使用者更高效與ChatGPT展開對話,流暢地提供即時回覆,若是在對話過程中「打岔」ChatGPT,它也能快速應對,聊天互動更具人性化。此外,OpenAI高層演示了與ChatGPT的語音對話,新款AI模型不但能以生動語氣講述床邊故...
ChatGPT 製造商 OpenAI 計劃周一 (13 日) 宣布其旗艦人工智慧 (AI) 聊天機器人以及最先進語言模型 GPT-4 的更新,該公司執行長阿特曼 (Sam Altman) 上周五曾在 X(前推特) 表示:「(更新後) 感覺就像魔
OpenAI於13日發布春季更新資訊,宣布推出可聽、可看新AI模型「GPT-4o」,且將免費提供,未來也將在masOS上推出桌面應用程式。GPT-4o有什麼創新功能?免費使用與付費版的差別是什麼?
OpenAI發布全新模型GPT-4o,透過融合各種功能的「全能模型」打造出更為逼近真人的互動體驗,連執行長奧特曼也不禁表示,就像科幻電影裡的AI一樣。
OpenAI於5月13日舉行線上發表會,推出新一代AI模型GPT-4o。該模型整合了文字、圖像及音訊處理能力,讓ChatGPT能進行更逼真、即時的語音對話。GPT-4o的平均回應時間僅需320毫秒,與人類對話反應相近,且能感知使用者情緒,透過音樂舒緩情緒,甚至能講睡前故事並變換語調。
13日,OpenAI發布了其對話機器人ChatGPT的桌面版本,以及為聊天機器人提供動力的人工智慧(AI)語言模型的最新版本。
才過半年,OpenAI又推出了功能更先進的聊天機器人模型,這款新AI宛如人工智慧秘書,不僅和人對話更自然,在發表會上也現場演示算數學,展現更厲害的圖像處理能力。OpenAI科技長穆拉提還特別感謝輝達,提供的技術讓新模型更強大。
OpenAI舉行春季新品發表會,推出新的人工智慧模型「GPT-4o」,其中的「o」代表「omni」,也就是全能、全方位的意思,代表其在各種應用場景中都有著廣泛的功能及適用性。 使用者過去以語音模式與ChatGPT對話時,GPT-3.5的平均延遲時間為2.8秒、GPT-4則為5.4秒,但也有著無法直接觀察音調及多個說話者或背景噪音,也無法輸出笑聲、歌唱或表達情感等問題。 而OpenAI針對GPT-4o,進行跨文字、音訊、圖像的端到端訓練新模型...
人工智慧開發龍頭「OpenAI」即將推出新版聊天機器人,除了語音對話更即時、更聰明,還能感知使用者的情緒,甚至能調整對話的語氣。此外,新版聊天機器人還整合了圖像分析技術,就連紙上數學習題也難不倒它,預
美國科技公司Open AI 13日推出新模型,新一代AI 具備視覺偵測、甚至是分析功能,會解數學題,還能講床邊故事,甚至能用唱的 唱出故事結尾;Open AI更釋出影片,展現出新模型 可當視障者 嚮導,而且這個模型開放免費使用。 (鏡新聞已上架86台,若無法收看,請洽詢當地系統台) 鏡新聞APP iOShttps://reurl.cc/kqyqML 鏡新聞APP Androidhttps://reurl.cc/Ay2y63 有話鏡來講YThttps://reurl.cc/A4DjQj 少年新聞週記YThttps://reurl.cc/K4DeN9
[NOWnews今日新聞]知名聊天機器人「ChatGPT」的製造商OpenAI,當地時間週一宣布,推出新的人工智慧模型「GPT-4o」和ChatGPT桌機版本,更新用戶介面,號稱速度更快,文字、視覺和...
美國人工智慧公司OpenAI週一(5/13)發表最新模型GPT-4o,不僅速度快於先前版本,且可與用戶即時進行語音對話,互動時還能在文字與圖像間切換。此外,GPT-4o還開放所有用戶免費使用,讓OpenAI在當前的生成式人工智慧模型競賽中維持領先地位。
OpenAI 在稍早發表了一款名為「GPT-4o」的全新 AI 模型。新模型可以接受包含文字、音訊和圖像的任意組合作為輸入,並可以生成所有這三種格式的輸出。
在先前預告後,OpenAI正式揭曉其全新GPT-4o人工智慧模型,並且推出桌機版App及新版操作介面,另外也讓使用者能透過「Hey,ChatGPT」進行語音、影像識別等互動。
OpenAI 周一 (13 日) 在線上發表會上推出新型人工智慧 (AI) 模型「GPT-4o」,該模型能進行語言、文本和視覺推理,而且在文本、影片和音頻方面的能力都有所提高,所有用戶將能免費使用。此外,該公司還推出桌上型電腦版本 C
OpenAI 13日推出新型AI模型GPT-4o,號稱速度比 GPT-4 Turbo快一倍,而且成本只要一半。在文本、影片和聲音方面的能力都有所提升。無論是感知使用者情緒、講睡前床邊故事、聽聲翻譯、甚至是解決數學方程式、輔助編寫程式碼,通通都能辦到。
美國人工智慧公司、ChatGPT開發商OpenAI,13日推出更高性能、更高效AI技術模式GPT-4o,能夠進行逼真語音對話,還能夠在文字和影像之間互動,並可輕鬆解算紙上的數學問題,新功能將開放給全體用戶免費使用。
在有諸多消息指稱OpenAI將於美國當地時間5月13日公布搜尋功能,藉此挑戰Google搜尋業務地位之後,OpenAI執行長Sam Altman稍早則是透露新品就像「魔法」一般,但並非傳聞中的GPT-5,或是搜尋引擎服務,而是人們會喜歡的東西。
[FTNN新聞網]記者林兪彤/綜合外電報導人工智慧(AI)功能日新月異,近日美國人工智慧公司OpenAI昨(13)日再推出更高性能更高效AI技術模式「GPT-4o」,除能...
...OpenAI官網) OpenAI將於美國時間5月13日上午10點,在其官網透過直播舉行春季新品發表會! 近期有許多傳言指出,OpenAI將在發表會中推出基於人工智慧聊天機器人程式ChatGPT的搜尋應用產品,甚至有望發表新一代模型GPT-5。 而根據外媒《The Information》報導指出,OpenAI將推出一款具有音訊及視覺辨識能力的多模態數位助理,可以透過該助理處理文字、圖像、語音等多種輸入方式,並以自然語言的形式與使用者進行互動。 not gpt-5...
OpenAI周一線上發表會又有新的黑科技!推出新型AI模型「GPT-4o」,在語言、文本和視覺推理能力都有提升。不只能透過分析用戶臉部反映,評估使用者當下情緒,還可以即時翻譯多國語言,讓兩個不同語言的朋友聚在一起也能輕鬆聊天。 OpenAI研究員Mark Chen.vs.GPT-4o:「好我要再試一次,做一個深呼吸,慢慢吐氣。」 吸氣吐氣速度快慢,竟然都能被感應,甚至做出新建議,OpenAI線上發表會大秀新AI模型GPT-4o...