策劃 | 壹舟
ChatGPT熱度依舊霸榜,接連被許多名人點贊了!國外微軟的比爾蓋茨、納德拉、特斯拉的馬斯克,國內的李彥宏、周鴻祎、張朝陽,甚至不是科技圈的作者鄭淵潔,也因為ChatGPT的出現,開始相信“作家有可能在未來會失業”了。再比如驚動谷歌隱退的大佬布林,前美團聯合創始人王慧文也再度出山,廣發英雄帖招募AI人才,造一個中國OpenAI。
以ChatGPT和DALL-E為代表的的生成式AI,以一系列令人眼花繚亂的風格,寫出了充滿豐富細節、想法和知識的文本,拋出華麗的答案和藝術品。生成的人工制品如此多樣,如此獨特,以至于很難相信它們來自機器。
以至于一些觀察人士認為,這些新的AI終于跨過了圖靈測試的門檻。用某些人的說法:這一門檻并沒有被輕微超過,而是被吹得粉碎。這門AI藝術太好了,“又有一批人已經瀕臨失業線”。
但是,經過一個多月來的發酵,人們對于AI的奇跡感正在消退,生成式AI的“原始明星光環”也在漸漸消失。例如,一些觀察者以正確的方式提問,而ChatGpt卻“吐”出了一些愚蠢甚至錯誤的東西。
再比如,一些人在小學美術課上使用了流行的老式邏輯炸彈,要求拍攝夜晚的太陽或暴風雪中的北極熊。其他人則提出了更奇怪的問題,AI的上下文感知的局限性顯露無疑。
本文整理了生成式AI的“十宗罪”。這些罪名可能讀起來像酸葡萄,(筆者也嫉妒AI的強大,如果機器被允許接管,筆者也會失去工作,哈哈~)但意在提醒,絕非抹黑。
1.剽竊抄襲更難檢測
當DALL-E和ChatGPT等生成式人工智能模型創建時,它們實際上只是從訓練集中的數百萬個示例中創建新模式。結果是從各種來源提取的剪貼合成,當人類這樣做時,也被稱為抄襲。
當然,人類也是通過模仿來學習的,但在某些情況下,AI的這種“拿來”、“借用”卻是如此明顯,以至于會讓一位小學老師惱怒到無法給學生上課。這種人工智能生成的內容由大量文本組成,這些文本或多或少都是逐字呈現的。然而,有時有足夠多的摻雜或合成,即使是一個大學教授小組也可能難以檢測到來源。不管怎樣,缺少的是獨特性。盡管這些機器閃閃發光,但它們無法生產任何真正的新產品。
2.版權:代替人類之時,訴訟興起之日
雖然剽竊在很大程度上是學校的問題,但版權法適用于市場。當一個人從另一個人的工作中受到擠壓時,他們可能會被帶到法庭,法庭可能會處以數百萬美元的罰款。但AI呢?同樣的規則適用于他們嗎?
版權法是一門復雜的學科,生成式AI的法律身份問題需要數年才能解決。但有一點不難預料:當人工智能好到足以替代員工進行工作時,這些被替代的人中,肯定會利用“在家賦閑”的時間提起訴訟。
3.人類充當了模型的無償勞動力
剽竊和版權并不是生成式人工智能引發的唯一法律問題。律師們已經在構思新的訴訟倫理問題。例如,制作繪圖程序的公司是否應該被允許收集有關人類用戶繪圖行為的數據,并能否將這些數據用于AI訓練?基于此,自己被使用的創造性勞動是否應該得到補償?當前AI的成功,很大程度上源于對數據的訪問。那么,當生成數據的大眾想要分一杯羹時能否實現?什么是公平?什么是合法的?
4.信息堆砌,不是知識創造
AI特別擅長模仿人類需要數年才能發展出的那種智力。當一位學者能夠介紹一位默默無聞的17世紀藝術家,或以一種幾乎被遺忘的文藝復興音調結構,來創作新音樂時,我們有充分的理由來表達對此的驚艷之詞。我們知道,發展這種深度的知識需要多年的學習。當人工智能只需要幾個月的訓練就完成了這些相同的事情時,結果可能會非常精確和正確,但有些東西是缺失的。
人工智能只是似乎模仿了人類創造力中有趣和不可預測的一面,但卻“形似神不似”,無法真正做到這一點。與此同時,不可預測性是推動創造性創新的因素。像時尚娛樂行業,不僅沉迷于變化,而且被“變化”所定義。
事實上,人工智能和人自身的智能都各有其擅長的領域。比如:如果一臺訓練有素的機器能夠在一個裝滿數十億張唱片的數字盒中找到正確的舊收據,那么它也可以了解像阿芙拉·貝恩( 17世紀第一位以寫作為生的英國女性)這樣的詩人所知道的一切。甚至可以設想,機器是為了破譯瑪雅象形文字的含義而制造的。
5.智力停滯,難以成長
說到智能,人工智能本質上是機械的和基于規則的。一旦人工智能通過一組訓練數據,它就會創建一個模型,而這個模型并不會真正改變。一些工程師和數據科學家設想隨著時間的推移逐步重新訓練人工智能模型,以便機器能夠學會適應。
但是,在大多數情況下,這個想法是創建一組復雜的神經元,以固定的形式編碼某些知識。這種“恒常性”有它的用武之地,可能適用于某些行業。但同時也是它的弱點,危險就在于它的認知將永遠停留在其訓練數據的“時代怪圈”中。
假使我們變得十分依賴生成式AI,以至于無法再為訓練模型制作新材料時,會發生什么?
6.隱私和安全的門閘太松
人工智能的訓練數據需要來自某個地方,而我們并不總是那么確定神經網絡中會出現什么。如果AI從其訓練數據中泄露個人信息怎么辦?
更糟糕的是,鎖定AI要困難得多,因為它們的設計非常靈活。關系數據庫可以限制對具有個人信息的特定表的訪問。然而,人工智能可以通過幾十種不同的方式進行查詢。攻擊者將很快學會如何以正確的方式提出正確的問題,以獲取他們想要的敏感數據。
例如,假設攻擊者,盯上了某處資產的位置,AI也能被用來旁敲側擊地問出緯度和經度。一個聰明的攻擊者可能會詢問幾個星期后太陽在該地點升起的確切時刻。盡職盡責的人工智能會盡力給出答案。如何教會人工智能保護隱私數據,也是一個難解之題。
7.未知的偏見之地
自大型機年代起,技術圈就創造了“垃圾輸入,垃圾輸出”(GIGO)的概念,也讓大眾看到了計算機問題的核心。AI的許多問題來自于糟糕的訓練數據。如果數據集不準確或有偏差,結果也將如此反映。
生成式AI的核心硬件理論上是邏輯驅動的,但制造和訓練機器的人類卻不是。司法前的意見和政派偏見已經被證明可以引入人工智能模型。也許有人使用了有偏見的數據來創建模型。也許他們添加了某類訓練語料以防止模型回答特定的熱點問題。也許他們輸入了硬連線的答案,然后變得難以檢測。
人工智能的確是個不錯的工具,但這也意味著,別有用心之人有一萬種方法,讓AI成為有害信念的絕佳載體。
這里有個國外買房貸款的例子。案例中,用于評估潛在租戶的AI系統依賴于法庭記錄和其他數據集,這些數據集大都帶有自身偏見,反映了系統性的種族主義、性別歧視和能人主義,而且眾所周知,錯誤很多。盡管有的人明明有能力支付租金,但他們經常被拒絕提供住房貸款,因為租戶篩選算法認為他們不合格或不值得。這也是我們經常所聽到的業務員給的答復:大數據/系統/AI這么提示的。
ChatGPT被冒犯后的表現
8.機器的愚蠢,來得猝不及防
人們很容易原諒人工智能模型犯的錯誤,因為它們做了很多其他事情。只是很多錯誤很難預料,因為人工智能的思維方式與人類不同。
例如,許多文本到圖像功能的用戶發現,人工智能會犯一些很簡單的錯誤,比如計數。人類在小學早期就學會了基本的算術,然后我們以各種各樣的方式使用這項技能。讓一個10歲的孩子畫一只章魚,孩子幾乎肯定會確定它有八條腿。當涉及到數學的抽象和上下文用途時,當前版本的人工智能往往會陷入困境。
如果模型構建者對這一失誤給予一定的關注,這可能很容易改變,但也會有其他未知的錯誤。機器智能不同于人類智能,這意味著機器的愚蠢也將不同。
9.機器也會撒謊,很容易騙人
有時,在沒有意識到這一點的情況下,我們人類往往會掉進AI的坑里。在知識盲區里,我們傾向相信AI。如果AI告訴我們亨利八世是殺害妻子的國王,我們不會質疑,因為我們自己也不知道這段歷史。我們往往假設人工智能是正確的,就像我們作為大會的觀眾,看到有魅力的主持人揮手時,也一樣默認選擇相信“臺上那位比我懂得多”。
對于生成式AI的用戶來說,最棘手的問題是知道人工智能何時出錯?!皺C器不會說謊”常常是我們的口頭禪,然而事實上并非如此。機器雖然不能像人類那樣撒謊,但它們犯的錯誤也意味著更加危險。
他們可以在任何人都不知道發生了什么的情況下,寫出一段段完全準確的數據,然后轉向猜測,甚至轉變成一場謊言?!罢婕賲搿钡乃囆g,AI也會。但不同的是,二手車經銷商或撲克玩家往往知道自己什么時候在撒謊,大多數人都會說出自己的哪里撒謊了,AI卻做不到。
10.無限濫用:經濟模式堪憂
數字內容具有無限的可復制性,這已經使許多圍繞稀缺性建立的經濟模型陷入困境。生成式AI將進一步打破這些模式。生成式人工智能將使一些作家和藝術家失業,它也顛覆了我們所有人所遵循的許多經濟規則。
- 當廣告和內容都可以無休止地重新組合和再生時,廣告支持的內容會起作用嗎?
- 互聯網的免費部分是否會變成一個“機器人點擊頁面廣告”的世界,所有這些都是由人工智能生成的,可以無限復制?
- 如此輕松實現的“繁榮富足”,可能會破壞經濟的各個角落。
- 如果不可替代代幣可以永久復制,人們會繼續為其支付費用嗎?
- 如果制作藝術如此容易,它還會受到尊重嗎?它還會很特別嗎?有人會介意它不是特別的嗎?
- 當一切都被視為理所當然時,一切都會失去價值嗎?
- 莎士比亞在談到“slings and arrows of outrageous fortune(暴富之命運)”時,這就是他的意思嗎?
我們不要試圖自己回答,讓生成式AI自己來。它可能會返回一個有趣、別致且奇怪的答案,而且極有可能穩穩地拿捏了“模棱兩可”的界限——一個略帶神秘感,游走在是非邊緣,又不倫不類的答案。
原文鏈接:https://www.infoworld.com/article/3687211/10-reasons-to-worry-about-generative-ai.html