人工智慧的侷限性:超出人工智慧能力範圍的領域和任務

人工智慧的侷限性:超出人工智慧能力範圍的領域和任務

文章目录

  • 創造力和原創性
  • 倫理與道德推理
  • 判斷與人類價值觀
  • 情商與同理心
  • 身體和感知運動技能
  • 領導力與戰略願景
  • 模式
  • 人工智慧的侷限性是永恆不變的嗎?
  • 常見問題

人工智慧的侷限性

人工智慧取得了令人矚目的成就,從影像識別、語言翻譯到在國際象棋比賽中擊敗人類。然而,人工智慧並非無所不能,因為在某些關鍵領域和任務上,它的能力遠不及人類。目前的人工智慧系統是“狹隘”的專家,擅長解決定義明確的問題,但在需要常識、創造力或情感理解的一般情況下卻舉步維艱。在本文中,我們將探討人工智慧(目前)無法有效取代的幾個領域和實際應用,進一步凸顯人工智慧的固有侷限性,正是這些侷限性使得人類仍然必不可少。

人工智慧在以下領域能力不足:

創造力和原創性

創造力是大多數人誤認為人工智慧能力之一。因此,在開始之前,需要一定程度的清醒:

人工智慧並非真正具有人類意義上的創造力

到目前為止,人工智慧只是模仿!它並沒有進行有意義或有意圖的創新。在創造性領域,人類的創造力仍然佔上風。雖然人工智慧可以透過學習現有作品的模式來創作藝術作品或文字,但它缺乏想象力、文化洞察力和情感深度。它擅長整合現有資訊,但在獨創性創作方面卻舉步維艱。這意味著人工智慧藝術家可以融合各種風格,人工智慧作家可以模仿某種體裁,但要創作出一個深刻的原創概念或一個能引起人類深層共鳴的故事,則是另一回事。

解碼器

只是解碼器!

一項調查顯示,76% 的人認為 AI 生成的內容並非“真正的藝術”,他們認為這些精心設計的作品缺乏真實感或靈魂。人類創作者會運用個人經驗、情感和意圖——他們創作是因為他們想要表達某種東西。而 AI 沒有內在的聲音或目的;它只是被要求輸出。因此,從科學創新到小說寫作和設計,那些依靠原創想法和創造性冒險而蓬勃發展的領域,仍然難以被 AI 真正顛覆。AI 是一個強大的創意工具,但就目前而言,它更像是一個聰明的模仿者,而非真正的靈感源泉。專家將 AI 比作“沒有大腦的嘴巴”。這可以理解!

倫理與道德推理

AI 缺乏真正的道德指南針或對倫理的理解。但這部分是由於道德困境的複雜性。在倫理考量方面,沒有一成不變的“是”或“否”。倫理問題會隨著時間推移而變化,並受到文化和政治的極大影響。人工智慧可以遵循程式規則,但它不具備人類的價值觀和良知。因此,人工智慧缺乏進行復雜倫理決策所需的價值觀、同理心和道德推理能力。

例如,我們不會委託人工智慧在無人監督的情況下,在醫療分診或自動駕駛汽車場景中做出生死攸關的選擇。人工智慧可能會最佳化結果(例如效率或效用),卻不理解公平或同情心。在刑事司法領域,用於量刑或警務的演算法由於基於歷史資料進行訓練而表現出偏見,這可能會強化不公平的偏見。

結果與價值之間的權衡

結果與價值之間的權衡

這些工具無法識別個體情況或公平性,凸顯了機器缺乏人類的道德推理和同情心。簡而言之,每當決策涉及道德判斷或責任時,人類的判斷仍然不可替代,能夠以人工智慧無法做到的方式衡量是非對錯。

判斷與人類價值觀

現實世界中的決策沒有唯一的正確答案。它們取決於個人價值觀、文化背景和情境判斷。人工智慧無法理解這些。它基於資料和目標,而不是意義。

以選擇廣告宣傳方案或制定社羣政策為例。這不僅僅關乎在測試中表現如何。它關乎什麼合適,什麼感覺正確。美學、價值觀、基調,所有這些都源於人類的經驗。就人類價值觀而言,沒有放之四海而皆準的解決方案,因為它們深受過去經驗的影響。人工智慧無法解讀房間的氛圍。它不知道某件事對某些人意味著什麼。

人類價值觀與傳統資料點的區別

人類價值觀與傳統資料點的區別

正因如此,與道德、文化或判斷相關的選擇仍然需要人類的參與。即使資料看起來不錯,我們也能洞察細微差別、理解背景,並意識到哪些地方不對勁。人工智慧並非為此而生。荷蘭福利政策就是一個很好的先例。該計劃旨在為荷蘭居民提供經濟援助,合格候選人的選擇取決於機器學習演算法。但由於預測工具存在缺陷,荷蘭福利系統對移民和低收入女性的評估存在不均衡,這進一步凸顯了其訓練資料中的偏見。

情商與同理心

情感和同理心是許多人類角色的基礎,也是人工智慧的一個主要盲點。人工智慧可以模擬禮貌的對話,但它缺乏情商,無法真正理解或分享感受。例如,在醫療保健和治療領域,患者除了需要事實性建議外,通常還需要同情和情感支援。在某些情況下(心身疾病),僅靠安慰和幫助就足以進行治療。

輕率地最佳化解決方案

輕率地最佳化解決方案

AI 治療師或護理人員或許能夠提供資訊,但卻無法像人類那樣對那些不言而喻的情感暗示做出回應。同樣,客服聊天機器人可以處理簡單的問題,但憤怒或苦惱的客戶可能需要一位能夠感同身受、緩和情緒的人工客服。建立有意義的關係——無論是作為教師、輔導員還是護士——都需要同理心、對情感的細緻理解以及對社交暗示的適應能力,而這些都是人類獨有的特質。現實世界的經驗也反映了這一點:護理、諮詢和社會工作崗位仍然依賴於人與人之間的接觸,因為 AI 無法取代這些工作所需的溫暖和理解。在 AI 能夠真正感受或至少深度模擬人類情感之前,它在任何需要情感聯絡的應用中都存在侷限性。

身體和感知運動技能

搭載 AI 的機器人在受控環境(例如工廠)中取得了長足進步,但它們在應對現實世界的複雜性方面仍舉步維艱。有一個眾所周知的見解,叫做莫拉維克悖論:人類認為很容易的任務——行走、感知和操縱物體——卻是人工智慧最難複製的任務之一。人工智慧可以在國際象棋比賽中擊敗大師,但家用機器人仍然無法可靠地摺疊衣物

連最基本的任務都難以完成

連最基本的任務都難以完成

我們習以為常的感知和感覺運動技能需要即時理解無數變數,而人工智慧卻對此極具挑戰性。例如,自動駕駛汽車可以在已繪製地圖的道路上以最佳狀態行駛,但在不可預測的非結構化環境中(例如,處理突如其來的道路碎石或人類的手勢)可能會出現故障,因為這些環境瞬息萬變。護理人員移動病人或廚師即時調整菜譜依賴於人工智慧所缺乏的智慧和物理直覺。儘管機器人技術取得了進步,但人類的靈活性和現實世界的適應性仍然在很大程度上無法匹敵。

領導力與戰略願景

領導力在於激勵員工、在不確定的情況下進行判斷以及建立信任。而這些正是人工智慧難以應對的領域,因為照本宣科毫無用處。經理和高管依賴於人工智慧無法模仿的人際交往和戰略技能。這些技能是他們透過多年的經驗積累而獲得的。

以結果為導向的短視決策

以結果為導向的短視決策

人工智慧或許比人類更快地處理業務指標,但它無法感知團隊士氣,也無法本能地預測一個近端有利決策的未來後果。溝通和同理心是優秀領導力的關鍵,而這兩者都是人類的固有特質。正如一項分析指出,透過願景、同理心和溝通來激勵和引導他人,是人工智慧無法企及的人類能力。

此外,人們往往不願在重要問題上遵循機器的指令;我們希望領導者能夠理解我們的價值觀,並對其決策負責。對於機器來說,誰應該為事故負責?程式設計師?公司?人類喜歡找出根本原因。而如果事故發生在人工智慧身上,則完全沒有可預見的解決方案或限制。

模式

考慮到人工智慧侷限性的所有方面,可以得出以下結論:

人工智慧難以進行主觀決策。因此,它在任何非二元決策方面都顯得力不從心。

綜合本文討論的所有內容,我們可以得出一些清晰的規律:

  • 人工智慧感知的是模式,而非意義:它處理資料時,並沒有真正理解語境、情感或意圖。
  • 人工智慧處理的是規則,而非模糊性:它在結構化環境中有效,但在不可預測、混亂的現實世界中卻會失效。
  • 人工智慧模仿,而非原創:它對現有輸入進行重新組合,缺乏真正的創造力、直覺或自我驅動的目標。
  • 人工智慧的運作不考慮後果:它無法像人類那樣關心問題、承擔責任,也無法做出有道德的決策。
  • 人工智慧瞭解事實,而非智慧:它缺乏來自生活經驗和人類洞察力的判斷力、靈活性和洞察力。

人工智慧的侷限性是永恆不變的嗎?

本文的觀察基於人工智慧的現有能力,未來可能會不斷發展。隨著該領域的不斷發展,人工智慧的侷限性正在日益縮小。如果未來人工智慧能夠克服本文列出的一些挑戰,這並不令人意外。但如果人工智慧能夠在倫理等一些方面取得突破,我們或許將見證人工智慧運作方式的正規化轉變。

常見問題

問題 1:為什麼人工智慧無法取代人類的創造力?

答:人工智慧能夠模仿現有資料的模式,但缺乏想象力、情感和意圖。它無法進行有目的或有意義的創造,只是基於訓練的輸出。人類會從個人經驗和情感中汲取靈感,創造出原創的東西。人工智慧可以進行混搭,但無法真正創新。

問題 2:我們能信任人工智慧做出倫理或道德決策嗎?

答:不能。人工智慧不懂倫理,它只是遵循規則。它缺乏同理心、文化意識和是非觀念。在涉及公平或問責的複雜決策中,人類的判斷仍然至關重要。

問題 3:人工智慧在實際應用中最容易失敗的地方是什麼?

答:人工智慧在非結構化、不可預測的情況下表現不佳。它無法像人類一樣解讀情緒、處理細微差別或適應環境。需要同理心、判斷力或身體直覺的角色,例如護理、領導或社會工作,仍然依賴於人類。

評論留言