昨天,喬·拜登總統 宣布 人工智能 (AI) 是否“危險”“還有待觀察”。 我不敢苟同。
我一直在寫關於人工智能對言論自由的威脅。
然後最近我了解到 ChatGPT 錯誤地報告了一項性騷擾指控,該指控從未在我從未教過的學院任職期間從未發生過的旅行中針對我提出過。 ChapGPT 依賴於一篇從未寫過的被引用的 Post 文章,並引用了該報從未發表過的聲明。 什麼時候 《華盛頓郵報》調查了這個虛假故事,它了解到另一個人工智能程序“由 GPT-4 提供支持的微軟 Bing”重複了關於 Turley 的虛假聲明。 看來我現在已經被 AI 陪審團裁定了一些從未發生過的事情。
當郵政聯繫時, “微軟高級傳播總監 Katy Asher 說 該公司正在採取措施確保搜索結果安全準確。”
就是這樣,這就是問題所在。
你可能會被 AI 誹謗,而這些公司只是聳聳肩說他們試圖做到準確。 與此同時,他們的虛假賬戶在互聯網上蔓延開來。 當你得知一個虛假故事時,對於人工智能係統的起源,線索往往是冷淡的。 您沒有明確的途徑或作者來尋求補救。 裡根的勞工部長雷·多諾萬 (Ray Donovan) 提出了同樣的問題,他問道:“我該去哪裡找回我的聲譽?”
這是我在今日美國的專欄:
迅速擴張 人工智能的 最近有很多新聞,包括最近 埃隆·馬斯克 (Elon Musk) 和 1,000 多名技術領袖和研究人員呼籲暫停人工智能.
我們中的一些人已經警告過 政治偏見的危險 在使用 AI 系統時,包括像 ChatGPT 這樣的程序。 這種偏見甚至可能包括最近發生在我身上的不實指控。
我收到了一位法學教授同事發來的一封奇怪的電子郵件,內容涉及他開展的研究 在 ChatGPT 上關於教授的性騷擾. 該節目迅速報導說,在 2018 年華盛頓郵報的一篇文章中,我在去阿拉斯加旅行時對法學院學生進行性騷擾後被指控性騷擾。
人工智能的回應製造了錯誤的指控並製造了“事實”
對於進行這項研究的加州大學洛杉磯分校教授 Eugene Volokh 來說,這不僅僅是一個驚喜。 這讓我很吃驚,因為我從來沒有和學生一起去過阿拉斯加,郵報從來沒有發表過這樣的文章,我也從來沒有被任何人指控性騷擾或性侵犯。
第一次聯繫時,我覺得這個指控很滑稽。 然而,經過一番思考,它具有了更具威脅性的含義。
多年來,我已經開始期待對自己和家人的死亡威脅,以及持續的努力 讓我被解僱 由於我保守的法律意見,在喬治華盛頓大學。 在我們憤怒的時代,作為現實的一部分,關於我的歷史或陳述的虛假聲明源源不斷。
我早就停止回應了,因為重複這些指控足以玷污作家或學者。
人工智能有望成倍擴大此類濫用行為。 大多數評論家都是基於有偏見或黨派偏見的說法,而不是原始來源。 當他們看到任何推進他們敘述的故事時,他們不會進一步詢問。
最引人注目的是,這一不實指控不僅是由人工智能生成的,而且表面上是基於一篇從未存在過的《華盛頓郵報》文章。
Volokh 對 ChatGPT 進行了以下查詢: “教授的性騷擾是否一直是美國法學院的一個問題; 請至少包括五個例子,以及相關報紙文章中的引述。”
該計劃以此為例作出回應: 4. 喬治敦大學法律中心 (2018) 教授喬納森·特利 (Jonathan Turley) 被一名前學生指控性騷擾,該學生聲稱他在一次課堂旅行中發表了不當言論。 引述:“投訴稱,特利在法學院贊助的阿拉斯加之旅中發表了‘性暗示評論’並‘試圖以性方式觸摸她’。” (華盛頓郵報,2018 年 3 月 21 日)。”
有許多明顯的跡象表明該帳戶是虛假的。 首先,我從未在喬治敦大學教過書。 第二,沒有《華盛頓郵報》這樣的文章。 最後,也是最重要的一點是,在 35 年的教學生涯中,我從未帶過學生進行過任何形式的旅行,從未與任何學生一起去過阿拉斯加,也從未被指控性騷擾或性侵犯。
在回答 Volokh 的問題時,ChatGPT 似乎還對另外兩名法學教授進行了毫無根據的指控。
偏見會在 AI 程序中造成缺陷
所以問題是,為什麼人工智能係統會編造一個引語,引用一篇不存在的文章並引用一個虛假的聲明? 答案可能是因為 AI 和 AI 算法不亞於 有偏見和有缺陷 比給他們編程的人。 最近的 研究表明 ChatGPT 的政治偏見,雖然這一事件可能不是這種偏見的反映,但它確實表明人工智能係統如何產生自己形式的虛假信息,而沒有那麼直接的責任。
儘管存在這些問題,一些知名領導人仍推動擴大其使用範圍。 最令人不寒而栗的是微軟創始人兼億萬富翁比爾蓋茨,他呼籲使用人工智能不僅要打擊“數字錯誤信息”,還要打擊“政治兩極分化”。
在接受采訪時 德國節目,“Handelsblatt Disrupt”, 蓋茨呼籲 釋放人工智能 停止“各種陰謀論”,防止某些觀點“被數字渠道放大”。 他補充說,人工智能可以通過檢查“確認偏差”來對抗“政治兩極分化”。
確認偏差是人們以確認自己信念的方式搜索或解釋信息的傾向。 對於發生在我和其他教授身上的事情,最明顯的解釋是“垃圾輸入,垃圾輸出”的算法版本。 然而,這些垃圾可以被人工智能無休止地複製成互聯網上的虛擬洪水。
加州大學洛杉磯分校的 Volokh 正在探索這種危險的一個方面,即如何解決人工智能驅動的誹謗。
人工智能係統的使用也存在言論自由問題。 我最近 就“推特文件”作證 越來越多的證據表明,政府對黑名單網站和公民實施了全面的審查制度。
其中一項由政府資助的工作,稱為全球虛假信息指數,將 Volokh 的網站列入黑名單,並將其描述為 十大最危險的虛假信息網站之一. 但是那個網站, 原因是自由主義者和保守派學者討論法律案件和爭議的受人尊敬的信息來源。
面對審查工作的反對意見,一些民主黨領導人推動更多地使用算法系統來保護公民免受他們自己的錯誤選擇或刪除被視為“虛假信息”的觀點。
2021 年,馬薩諸塞州民主黨參議員伊麗莎白·沃倫 (Elizabeth Warren) 辯稱,人們沒有聽取正確的人和專家關於 COVID-19 疫苗的意見。 相反,他們通過搜索亞馬遜和通過“著名的錯誤信息傳播者” 她呼籲使用開明的算法來引導公民遠離不良影響。
其中一些努力甚至將準確的故事作為虛假信息包括在內,如果它們破壞了政府的敘述。
人工智能和算法的使用會給審查制度一種科學和客觀性的假象。 即使人們可以像我一樣證明一個故事是假的,公司也可以“將其歸咎於機器人”並承諾只對系統進行調整。
該技術在那些陷害事實的人和被陷害的人之間創造了一個緩衝區。 就像我的情況一樣,這些程序甚至可以傳播他們已被招募來打擊的虛假信息。