網站建置
過去幾年,隨著科技公司競相推出更先進的人工智能模型,監管機構再次措手不及。在週的時間裡,該版本預計將比以往任何時候都進一步推動人工智慧功能。
在發佈人工智能模型之前進行測試是減少某些風險的常見方法,可能有助於監管機構權衡成本和收益,如果認為模型太危險,則可能會阻止模型發布。性還有很多不足之處。影響-目前的測驗不太可能發現需要進一步調查的所有風險。
其中一個工具可能是實驗室內部的內部報告機制。 ,越來越多的證據表明,人工智能實驗室中的公開批評非但沒有被誤刪,反而變得越來越少。者寫了一封公開信,表示擔心如果他們試圖揭露未違反法律的可疑企業行為,就會反擊。
如何發布警報
從理論上講,外部舉報人保護可以在人工智能風險檢測中發揮重要作用。僱傭關係的公共政策例外,換句話說,如果被解僱的員工因指出不安全或非法的公司行為而受到報復,他們可以向雇主尋求追索權。員工提出什麼保證。特別特別高。
這些和其他缺點解釋了為什麼上述13名人工智慧工作者,包括前OpenAI員工William Saunders,呼籲新的「預警權」。專家提供幫助組成的獨立第三方機構暴露與風險相關的問題。個機構都很可能會啟動某種調查。 真的 想要不同的東西。
當桑德斯繼續 大科技播客 為了概述他分享安全問題的理想流程,他的重點不是報告既定風險的正式實現。 「高風險」流程,例如預警權制度。
一方面,他們可能缺乏幫助人工智能工作者思考安全問題的專業知識。所說,這種電話可能「非常令人生畏」。可能實際上,從而使他能夠更加放心地回到他正在做的事情中。
降低賭注
桑德斯在此播客中要求不具有警告權,因為這表明員工已經相信存在不安全或非法活動。較低因此,監管反應可能會更輕鬆。的個人可以主動撥打人工智能安全熱線。 他們的任務是洩露保密和隱私的電話交談與快速、專業地討論安全問題。警告權限機制。
正如桑德斯所指出的,很少有員工會出於安全考慮而願意從 0 縱向 100——從同事直接到董事會,甚至政府機構。
研究其他地方的例子
人工智慧安全熱線的運作細節值得人工智慧社群成員、監管機構和民間社會進行更多辯論。熱線對話的保密性是另一個需要深入研究的問題。並願意參與。人工智慧熱線。
首先從監察員開始。的特徵是中立-他們沒有動機偏向某一方或另一方,因此他們更有可能獲得所有者的信任。情況更快提出和解決。
這個概念相對較新。出的結論是,有效的監察員可以有意義地改善公民與政府的關係。
人工智能監察員或安全熱線肯定會承擔與聯邦機構監察員不同的任務和人員。
預警權可能在傳播人工智能安全問題方面發揮作用,但我們還需要製定更多中間、中間的步驟。組織起來了,就像桑德斯這樣只需要一個共鳴板的人提供一個直接的出路。
凱文·弗雷澤(Kevin Frazier)是聖托馬斯大學法學院的助理教授,也是德州大學奧斯汀分校語法研究計畫的高級研究員。