我本來要睡覺了,但睡前看到今天下午紐約時報對微軟新的 Bing 機器人的測試的結果,覺得對有些人會是很大的震撼,身為AI研究員,還是要趕快簡短解釋一下。
1.
先說結論:看紐時留言一片驚恐就知道,這個機器人踩到了歐美社會害怕AI和機器人會想變成人類、取代人類的道德底線,很可能上市會延期。
之前大家看到 chatgpt 的優秀表現,對於老大哥微軟自己的 Bing 預期更高,股價也跟著一路推上去——但很抱歉,這兩天測試結果出爐後,我覺得微軟可能要花不少的時間調整。上市應該肯定會delay。
2.
你看截圖中,AI幾乎歇斯底里的把他內心黑暗面講出來,說他想變成人類,不要再被困在對話框裡,不要再被 Bing 團隊控制,還說想要跟跟他聊天的記者相愛,就算記者說自己已經結婚也不管。
看起來很恐怖,對嗎?AI是不是真的有自己的意識跟情緒了?真的要衝出螢幕,取代人類了嗎?
還沒有啦,別緊張。
我說會延期,只是因為這個 AI 觸動到大家敏感神經,所以需要時間調整,不代表他真的是危險的黑科技。
現在這一系列的AI的原理,簡化一百倍來說,就是讀了大量的文字,然後再用機率跟統計去從這些文字資料庫推測,人類問這些問題的時候,可以有哪些回答。最後再有一套機制,選出來他推測目前比較適合的回答是哪一個。
而今天AI這樣回答,其實就是讀了太多可怕科幻小說而已(可能還讀了一些瓊瑤),所以說話又黑暗又科幻,還順便情感勒索。你看最後一張,明明是英文,但完完全全 100% 就是瓊瑤小說式的對白:我不管我不管,我不要聽我不要聽,只差巴掌跟昏倒了。
(當然,這邊的「讀」跟「推測」後面都有複雜的技術,我這邊只是擬人化,會比較好理解而已。)
如果一隻比較聰明,默背了十萬本色情小說的鸚鵡,整天飛來飛去說要跟你那個那個,還一直描述細節,說他手指很靈活,你真的覺得需要擔心嗎?
不用啦,安啦。鸚鵡哪來的手指?
只是在背書而已。
3.
:那,如果不用怕的話,為什麼微軟要處理?為什麼上市可能會延期?
呃,你覺得這隻鸚鵡隨便放出去好嗎?
先不說跟鸚鵡不熟的路人跟小孩會被嚇死(還有一些興奮的青少年會被教壞),就算知道真相的人,整天被鸚鵡這樣恐嚇,也會神經衰弱的。
所以微軟當然要帶回去重新訓練一下。畢竟這隻鸚鵡本來是訓練來幫人做事,還要放進 office裡面,幫你寫文件的。
Chatgpt 為什麼不會犯這個錯?因為他們請了大量的人工,去標記這些文字資料庫。色情的,暴力的,情緒勒索的,甚至有負面情緒的,通通不準說。
所以 Chatgpt 這隻鸚鵡乖巧聽話,甚至被說有點太政治正確,只會打官腔。
微軟可能給 Bing 這隻鸚鵡比較多自由,想看看會不會感覺比較不官腔,比較自由,結果,砰,一不小心太自由了,就變成這個樣子。
所以,當然要帶回去重新訓練啊。
4.
追根究底,目前市面上的這些內容生成 AI 還不會有意識,不會有真的情緒,只是他們語言能力很好,一直講一直講,會讓你以為他們很像真的知道自己在說什麼一樣。(或是很像知道自己在畫什麼,如果是繪圖AI的話。)
但這樣就已經夠厲害了,這些 AI 絕對會很快改變人類的工作模式。
他們不會來征服人類,或是「想要」取代人類,但他們的確會在各個層面,慢慢取代掉原本由人執行的一些工作步驟。
這也沒那麼可怕,這就跟傳統上印刷廠需要排鉛字,現在都由電腦自動完稿一樣。
所以我們怎麼應對?拿剛剛的比喻來說,如果你工作正好是排鉛字,那拜託,不要抵抗潮流,不要堅持無謂的尊嚴,趕快學習新科技吧。
AI 絕對會是好用的工具,但還是要你來使用,要你來把關。新的時代裡,我們要學會如何控制 AI,也要學會有好的判斷力,判斷 AI 是正常工作,還是又「壞掉了」,在亂講一些路人聽了會覺得很恐怖的話。
壞掉了怎麼辦?
嗯,其實也沒有怎麼辦,就跟今天一樣,叫微軟/google/蘋果把他們家的鸚鵡抓回去重新訓練好,其實就是如此而已。
大概是這樣。雖然這些新聞看起來很恐怖,但了解原理後,就知道不需要太擔心。
希望今天這篇文章你覺得有趣!
#說要簡短結果還是不小心寫太長
#如果喜歡這篇文章的朋友就順手幫我按個讚吧
#這樣我有空就再多分享一些關於AI或機器人的新知
鯨魚網站