跳到主要內容

善用AI,還是被AI取代?

與其糾結AI到底能不能取代人類、會不會取代人類,或許更應該思考運用AI讓自己變得更好、讓正向的生活不斷地延展,就像運用其他的數位科技一樣。 

 ☆°.﹒☆°.﹒ ☆°.﹒ ☆°.﹒ ☆°.﹒ ☆°.﹒☆°.﹒ ☆°.

Can AI language models replace human participants?

Article  Danica Dillion, Niket Tandon, Yuling Gu, Kurt Gray
Trends in Cognitive Sciences, Volume 27, Issue 7, July 2023, Pages 597-600

📚推薦讀物:【寫給小學生看的AI】【寫給中學生看的AI

善用AI,還是被AI取代?

AI到底能不能取代人類、會不會取代人類,尤其在今年(2023)生成式AI技術的興起後討論得最為激烈。剛好Trends in Cognitive Sciences (IF=24.428) 20235月以社會心理學的角度發表了一篇相關研究,導讀如下:

已經有許多研究告訴大家,人工智慧語言模型已經可以在多個領域做出比擬人類的判斷,這篇文章便是從心理學的角度探討了AI取代人類的可能性 (特別對焦GPT)

🦾文章中提出,AI的功能定義是「任務的接替,接替曾經是由人類來執行的任務」
最為廣知的接替方法,就是GPT這樣的生成式大語言模型 (LLM);但是,LLMs真的能夠跟人類一樣思考、產出一樣品質的成果嗎?

為了「取代」人類,AI必須給予近似人類的反應!研究針對超過400多個道德場景進行統計 (包含:餐點遲到的情緒崩潰、搶停車位、車禍救援等道德場景),確認GPT-3.5 具有複製人類道德判斷的卓越能力:GPT-3.5 可以與人類進行交流,它的道德判斷與人類的道德判斷相似度也非常的高,這或許是因為大部分的道德判斷取決於場景的結構及特徵,所以在相對容易處理的情況下,造成GPT特別擅長進行道德判斷。

🦾不過,AI無法像人類一樣擁有獨立思維、做出正確決策,換句話說,它們無法擁有「人性」!
研究中舉了幾個例子:LLMs可以對球賽的違規提出違規的判定,以及建議對應的處置做法,但有關球迷的忠誠,以及對對手的敵意卻可能會出現與人類不同判別的偏差。同樣的道理,出現在戰爭殺戮的情況,若涉及保護人民、戰友,以及國家等議題時,LLMs就會出現道德權衡的問題。

另外,LLMs目前只與處理語言上的表現,無法處理具象行為的觀察及應對。所以,LLMs在甚麼時候能成為我們最好的助手呢?專家說:研究特定主題、執行特定任務、進行特定研究,以及針對範本進行特定模擬時,LLMs就是人類最好的助手;當然,處理這些特定事件前,都必須由人類提供LLMs完善的訓練。經過訓練後,LLMs能協助人類處理費時、無趣,以及高重複性的工作;具體來說,LLMs可以快速回答成千上百個問題而不會感到疲勞,並且它所需要的激勵比人類想像的要簡單許多!

有關LLMs的激勵方法,最為人知的就是在使用GPT後,給它的答案按個。至於,其他提升LLMs自我學習的能力,研究內文中提出了美國卡內基梅隆大學(Carnegie Mellon University)語言科技研究所發表的「Self-Refine」,對於技術發展有興趣的人可以去看看。

有趣的是,研究中驚鴻一撇地提出一個訊息:LLMs可以用來進行社會心理學最著名的行為研究「米爾格倫實驗」(Milgram experiment)!但僅僅就提到這一句,沒有更深入說明,所以是訓練讓LLMs來服從權威,又或者是利用LLMs來強迫人類完成權威服從的實驗,或許需要更多的文獻資料來協助呈現。

從另一論文[Guinea pigbots]看到的資訊,是前者、是讓GPT取代人類擔任「米爾格倫實驗」中的教師;而因為實驗結果正確率頗高,所以這樣的替代實驗就可以解決研究倫理問題。
(
「米爾格倫實驗」就是權威服從實驗;在實驗中,教師是被控制方!︎)

🦾LLMs完全取代人類的機率極低,但它可能會在各個研究階段不斷地進步、不斷地增加對人類的協助程度。
例如:LLMs可以協助人類產生許多種不同的想法,並且從中進行個別驗證、預測事件發展。LLMs也可以收集人類提供的資訊,作為往後的各種檢核依據。

根據統計,LLMs在英語方面的使用準確性較高,這是因為英語系的使用者對LLMs做的訓練相對完整,不過,訓練數據在65歲以上的人群與宗教信仰等方面的資料仍有不足。另外,由於使用族群的特性, GPT 模型往往偏向代表(美國)自由派、高收入和受過高等教育的人的觀點,而一些沒有經過人類回饋調整的LLMs,則更符合中等收入、低收入和宗教人士的觀點。所以,不同的語言模型,確實會存在不同的偏差,並且這樣的情況會一直存在下去!這種多樣性的偏差就是我們常發現:GPT 模型會產生「幻覺」,造成輸出不準確的原因之一。另外一個讓GPT 模型會產生「幻覺」的原因,很可能是因為它涵蓋廣義的貝葉斯推斷法 (先假設、再實驗,最後才更新實證)

🦾畢竟,LLMs的主要功能不是在察覺異樣,而是根據統計協助人類進行判斷。

前面有提到,LLMs是根據所屬的資料庫來協助人類進行判斷的,所以,它就是個輔助工具,而後續的判斷及決策,仍需要人類自行處理。AI語言模型的興起確實會取代許多工作,未來,在某些情況下甚至充當人類的代理人,但人工智慧是否足夠人性化以取代人類?研究直白地提出:人類是奇怪的、不可靠的和有偏見的,人工智慧是否能在同時具備人類的理性的情況下,不要過於明智、可靠和公正?或許可以問問GPT怎麼

最後,為什麼要過度擔心AI取代人類呢?舉個簡單的例子,大家來思考一下:
人類的腿,並沒有因為汽車的普及而廢掉,卻獲得快速地移動的能力;
人類的眼,不會因為望遠鏡的發明而退化,反而看得更遠;
人類的手,因為起重機而能搬動更多重物,空出來的雙手,可以做更多事情。
那麼,腦呢?會因為AI的興起,人類就不需要思考了嗎?所以,身為非技術開發者的我們,可以有更積極的作為:

在不損及他人權益的情況下,思考怎麼運用AI 讓自己變得更好、讓生活品質不斷提升,就像運用其他的數位科技一樣。

AI
,就讓它成為妳的幫手!

科技趨勢是威脅,還是工具,端看人類自己怎麼使用,怎麼以善意為立足點、以不侵害他人生命及生活權益為基礎,去運用這些工具。而這個兩面刃的議題,不只發生在AI,金融科技、區塊鏈、Web 3、數位轉型、ESG,都不容忽視。
那麼,這又引出教育的問題;不過這邊要推薦延伸閱讀/重溫的,不是「教育紅利,人才紅利」這篇文章,而是如果聰明的人說謊所羅門的偽證(因為還有善意的議題)

如果妳()有更好的例子,歡迎MAIL跟我互動。

有關妳()會不會被AI取代擔心如何用AI來讓自己更好,確實比較實際


有關「人類是奇怪的、不可靠的和有偏見的,人工智慧是否能在同時具備人類的理性的情況下,不要過於明智、可靠和公正?」GPT怎麼

 

有關「米爾格倫實驗」



留言

熱門文章

不是老鼠烏托邦! ︱25號宇宙

真正的烏托邦絕對與政府的政策規劃與推動緊密相關,而這些政策是為了短期利益目的,還是國家永續,值得深思熟慮。

如果聰明的人說謊–所羅門的偽證

流體智力確實與說謊的能力呈正相關。高認知能力的說謊者通常能在很短的時間內提供具有說服力的謊言。

留薪+留心=留才︱人才永續

員工寧願降薪也要換工作! 最簡單,也是最大的原因: 企業內部管理與文化出了問題,員工的心留不住了。