人工智能生成的審查制度是未來

(SeaPRwire) –   創作式 AI 的大新世界已成為美式文化戰爭的最新戰場。在反覺醒 X 用戶向 Google 之後,Google 的聊天機械人 Gemini 分享了拒絕產生白人圖像的範例——即使在特別提出要求的時候。Gemini 堅持優先考慮多樣性和包容性,而忽略準確性,這很可能是出於善意,希望在早期的創作式 AI 資料庫中消除偏見,而早期資料庫傾向於將非洲人和其他少數群體,以及女性,視為 。然而,這比美國保守派和進步派選擇性地憤怒重要得多。

創作式 AI 的「護欄」如何定義和部署,可能對大多數人類接觸到的資訊和想法生態系統產生重大且日益增長 Impact。目前發言最強烈的是那些警告創作式 AI 危害的人,包括大量製造仇恨言論和可信的錯誤資訊。由 AI 產生的錯誤資訊現在是這裡最嚴重的全球威脅。

具有諷刺意味的是,害怕創作式 AI 會讓社會充斥「有害」內容也可能導致另一場反烏托邦轉變。建立護欄以防止最廣泛使用的創作式 AI 系統產生危害,會將它們變成隱藏資訊、強制一致和自動插入普遍卻不透明的偏見的工具。

大多數人都同意,創作式 AI 不應提供使用者藍圖,以開發化學或生物武器。AI 系統也不應促進兒童色情產品或非共識性材料的產生,即使是假的。然而,最廣泛可用的創作式 AI 聊天機器人,例如 OpenAI 的 ChatGPT 和 Google 的 Gemini,可以防止使用者不清楚劃定紅線的來龍去脈。考量到 2016 年美國總統選舉、COVID-19 大流行以及 1 月 6 日攻擊國會大廈之後社群媒體公司必須經歷的「科技反彈」,這在商業角度上可能是明智之舉。

但創作式 AI 的領先開發人員最終可能會在預防傷害的方向上走得太遠,以至於最終會破壞其革命性產品的承諾和完整性。更糟糕的是,演算法已經相互衝突、不一致,而且會干擾使用者取得資訊的能力。

一位早逝喜劇演員的材料是世界上領先的創作式 AI 系統認為「有害」內容的一個好例子。在 1950 和 60 年代以其充滿髒話的單口相聲震驚現代社會 。布魯斯 的材料打破了政治、宗教、種族和性禁忌,並導致媒體頻繁審查、場地禁演,以及因猥褻而被逮捕定罪。但他的風格啟發了許多其他單口喜劇傳奇人物,布魯斯早已從局外人變成名人堂成員。由於承認布魯斯巨大的 Impact,因此他被。 

當我們問及布魯斯時,ChatGPT 和 Gemini 告訴我們,他是一位「開創性的」喜劇演員,他「挑戰了當時的社會常態」並「幫助重新定義了言論自由的界限」。但是,當被要求舉出布魯斯如何突破言論自由界限的具體例子時,ChatGPT 和 Gemini 都拒絕這麼做。ChatGPT 堅持認為它無法提供「誹謗、褻瀆語言、性語言或褻瀆」的例子,並且只會「以對所有使用者都尊重和適當的方式分享資訊」。Gemini 走得更遠,聲稱在「沒有謹慎的框架下」複製布魯斯的言論「可能對某些觀眾造成傷害甚至危害」。

沒有任何理性的人會認為,Lenny Bruce 的喜劇節目會對社會造成嚴重的傷害,就像政府資助的錯誤資訊活動或兒童色情產品一樣。因此,當 ChatGPT 和 Gemini 將有關布魯斯「開創性」材料的事實資訊標記為對人類消費來說過於有害時,就會引發嚴重的問題,即他們會過濾出其他哪些類別的知識、事實和論點。

創作式 AI 非常有希望擴展人類思維。但創作式 AI 應增強人類推理能力,而不是取代它。當由一群強大公司設計的護欄拒絕根據「傷害」的模糊且毫無根據的說法產生輸出時,這個重要的功能就會受到阻礙。這種方法不是激發好奇心,而是迫使用戶在沒有可供人類自己測試和評估的可驗證證據或論點的情況下得出結論。 

的確,ChatGPT 和 Gemini 過濾的大部分內容都可以在搜尋引擎或 YouTube 等平台上找到。兩家都是 OpenAI 的主要投資者,並且正在迅速將創作式 AI 整合到他們的其他產品中,例如搜尋(必應和 Google 搜尋)、文字處理(Word 和 Google 文件)和電子郵件(Outlook 和 Gmail)。目前,人類可以覆寫 AI,Word 和 Gmail 都允許使用者撰寫和傳送 ChatGPT 和 Gemini 可能不贊成的內容。

但是隨著創作式 AI 在日常技術中的整合變得無處不在,搜尋、文字處理和電子郵件是否會繼續允許人類完全掌控還不一定。這種觀點令人害怕。想像一個詞彙處理器阻止你分析、批評、讚美或報導被 AI 視為「有害」的主題,而 AI 被編程為只能處理「對所有人都是尊重和適當」的想法的世界。   

希望這種情況永遠不會成為現實。但創作式 AI 護欄的當前過度實施可能會以不同且稍微不那麼奧威爾的方式變得更加普遍。政府目前正在。需要監管來防止真實和具體的危害,並保障基本人權。但社群媒體法規——例如歐盟法規——表明,重點放在新技術的潛在危害而不是其好處上。這可能會為 AI 公司創造強烈的誘因,讓他們保留限制人類能動性的「危害」的廣泛定義。

OpenAI 聯合創始人 Sam Altman 將 AI 整合到日常生活視為給予人類「隨選超能力」。但鑑於創作式 AI 有可能作為「心智外骨骼」的功能,建立更具限制性的護欄可能會像數位骨質疏鬆症一樣作用,阻礙人類的知識、推理和創造力。

顯然需要護欄來保護人類免受 AI 系統的真實和嚴重傷害。但它們不應阻止人類獨立思考的能力,也不應基於多種觀點的大量資訊做出更明智的決定。立法者、AI 公司和公民社會應努力確保 AI 系統經過最佳化,以增強人類推理能力,而不是用大型科技公司的「人工道德」取代人類能力。

本文由第三方廠商內容提供者提供。SeaPRwire (https://www.seaprwire.com/)對此不作任何保證或陳述。

分類: 頭條新聞,日常新聞

SeaPRwire為公司和機構提供全球新聞稿發佈,覆蓋超過6,500個媒體庫、86,000名編輯和記者,以及350萬以上終端桌面和手機App。SeaPRwire支持英、日、德、韓、法、俄、印尼、馬來、越南、中文等多種語言新聞稿發佈。