顯然對于山姆·奧特曼來說,華夏人的人工智能技術是有特指的。
也不止是豆豆,雖然豆豆是全世界最成功的人工智能産品,而且名聲很大。但其實就目前來說,一般人隻能在網上接觸一下豆豆,沒可能接觸到豆豆的源代碼。
二般人其實也一樣,倒是群智的框架能接觸到,兩者走的路線并不完全相同。
比如hatgpt的邏輯中不存在因果耦合,其最核心的工作原理是通過分析大量文本數據來預測給定上下文中最可能的下一句話或詞彙。
這種基于統計模型的學習模式缺乏對真實世界的理解。
起碼就目前而言,hatgpt還沒有構建出内在的世界模型來理解因果關系。
一個最簡單的例子,當有人向hatgpt提問,蘋果熟了又沒人采摘會發生什麼?回答大概率是正确的,掉在地上。這并不是說hatgpt理解了重力導緻的因果關系,更大的可能是它學習過關于牛頓發現重力的那篇文章。
這跟群智的因果解耦框架不同,群智框架其實更接近世界大模型框架,依賴的是因果關系的學習。簡單來說,就是不斷的通過結果,倒逼原因的學習方式來掌握知識,以及加深對這個世界的理解。
這也是如果有人孜孜不倦的給hatgpt喂養錯誤的數據,就能讓人工智能在某個問題上不停犯錯的原因。
當然并不是說群智框架就是完美的。
事實上群智框架也會出錯。隻是犯的錯誤往往出于對因果關系錯誤的理解。
比如之前網上就曾曝出過一個笑話,有人問接入了群智框架的小藝,如果把冰塊放進剛燒開的熱水會發生什麼?小藝的回答是,冰塊會變成蒸汽,因為沸騰熱水可能使冰塊蒸發。
這就屬于典型的因果關系理解錯誤。畢竟按照物理過程,冰塊會先在熱作用下經曆融化再被加入到沸點,才能變成蒸汽。
兩者的區别是要讓hatgpt給出正确的回答,需要訓練數據時生成文本。群智框架隻需要讓它徹底能理解融化跟升華兩種不同的概念就夠了。
對這種簡單的問題解答,顯然前者更有優勢。前者隻要不停告訴hatgpt,冰要先融化成水,下次就能給出正确答案。
但後者要各種舉例,比如讓系統理解幹冰之所以會直接變成氣态,是因為在地球标準壓力下,二氧化碳沒有液态存在的穩定區。所以會直接從固體變為氣體,但水則不一樣……
但優劣不能如此簡單的對比。
因為一旦群智框架通過因果推導,理解了整個過程,下次就不會再犯同樣的錯誤。但前者如果有人穩定的,堅持的,不停喂養錯誤數據,下次依然可能犯錯……
對于山姆·奧特曼來說,目前的好消息是,hatgpt已經喂養足夠多的數據,起碼在現階段,也許能做得不比群智框架差多少。但壞消息是,還有豆豆這種逆天的存在,以及還要面對金主的威脅。
真的,如果不是有那麼多的禁令限制,山姆·奧特曼說不定便也屈服了。
讓他有底氣發出那兩聲“呵呵”,終究是因為對面這家公司恰好是被嚴格限制的。别說投資對面了,微軟如果真想跟對面眉來眼去,首先要迎接的是來自資本主義的鐵拳,哪怕微軟有着充足的動因。
現在世界的格局就是這樣,起碼在國際層面,發展到了微軟、有為這種層級的公司,早已經不可能從純粹的商業角度來做任何決策,更别提微軟還是上市企業。
就算薩蒂亞·納德拉敢亂命,股東跟董事會分分鐘能教這個三哥裔的e該怎麼做人。
隻是嗤笑之後,山姆·奧特曼顯然也并不想把眼前這位得罪的太狠了,深吸一口氣說道“好吧,薩提亞,我們會考慮你的意見,也會盡力找到雙方都能接受的合作方式。但我們必須明确,penai的技術推進不可能被單一的利益關系所束縛。”
薩蒂亞·納德拉面沉如水,但也隻能不鹹不淡的回了句“希望你能夠慎重考慮。如果繼續這樣下去,penai很可能将失去曾經最重要的支持者。”
不歡而散。
約談的結果就是沒有任何結果,但并不是沒有收獲。起碼雙方都大概了解了對方的态度。能不能有一個合适的解決方案另說。
當然,這場談話屬于機密。
除了當事人外,沒有第三人能聽到。
隻是兩人都沒,其實也不可能注意到,當兩人山姆·奧特曼站起來告辭後,辦公室角落裡ifi代表信号傳輸的燈光閃爍的要比平時稍微頻繁了些。
請勿開啟浏覽器閱讀模式,否則将導緻章節内容缺失及無法閱讀下一章。
相鄰推薦:征服天下,從給貴妃娘娘當太監開始 上醫至明 不受寵的四皇子君臨天下 直播玄學,在線吃瓜 三國第一奸賊 大明暴君,誰擋朕變法,誰就得死 鹹魚基建,我手握重兵 新明:從加入靖安司開始 都市俠之青銅短劍 大唐:開局扣押長樂公主 我崽是寵爸狂魔 直播算命:大師姐開局送你投胎 [萩松]我真的沒有ptsd 福女當道 丹修大佬被雷劈死,重生成假千金 隋唐:悟性逆天,我建立了大明 我在七俠鎮開店 廢土拾荒小菜鳥誓要在安全區買房 新路:我要替主逆天改命破輪回! 城隍爺靠玄學爆火人間