威爾斯親王
|
2024-5-26 07:26:13
|
自2023年以來OpenAI頻繁引發安全、倫理問題的爭議,甚至是訴訟。 OpenAI內部一條矛盾主線是,安全團隊不滿公司激進研發AI技術、加速商業化,對安全問題不夠重視
明星AI新創公司OpenAI,有足夠動力優先確保AI(人工智慧)的安全嗎? OpenAI一些員工對此表示懷疑,並選擇離職。
OpenAI成立於2015年,2023年以來它因推出大模型對話機器人(10.050, -0.16, -1.57%) ChatGPT而聲名大噪。微軟2019年開始投資OpenAI,迄今已向OpenAI承諾投資130億美元。目前OpenAI估值超過800億美元。
5月15日-17日,OpenAI超對齊團隊兩位負責人接連離職。其中包括OpenAI聯合創始人、首席科學家伊利亞·蘇茨克維爾(Ilya Sutskever),以及該團隊的負責人簡·雷克(Jan Leike)。
「超對齊」指的是,用科技引導、控制AI。依照OpenAI的原計劃,公司20%的算力資源要用於這項工作。
5月17日,簡·雷克離職時在社群媒體上透露,他離開的原因是「與OpenAI領導層在公司核心優先事項上的意見相左」。在簡·雷克看來,OpenAI必須成為一家安全第一的AI公司。公司應該把更多資源用在系統安全、效能監控、潛在風險準備,維護人類社會安全等議題。
蘇茨克維爾被認為是「AI理想主義者」。他曾在2023年11月共同其他幾位獨立董事辭退OpenAI執行長(CEO)薩姆·奧爾特曼(Sam Altman),這引發了連續一週的「宮鬥」。當時矛盾的關鍵是,蘇茨克維爾希望謹慎研發AI且不應再大規模融資,但奧爾特曼希望獲得更多融資並激進研發AI。
蘇茨克維爾和雷克離職後,OpenAI解散了超對齊團隊。該團隊剩餘員工將重新分配職位。超對齊工作將在公司內以鬆散的研究小組形式繼續存在。
自2021年以來,OpenAI一條長期存在的矛盾主線是-安全專家不滿奧爾特曼激進推動AI技術、加速商業化,但對安全問題重視不足。
沒兌現的安全承諾
2023年7月,蘇茨克維爾和雷克在OpenAI共同組成了超對齊團隊。這個團隊致力於確保AI得到安全控制。 OpenAI成立該團隊的目的是,向外界展示公司對AI安全負責任的形象。
超對齊團隊成立的背景是,2023年3月1000多名美國企業家、科學家、AI從業者聯名發表公開信,呼籲所有AI實驗室立即暫停訓練比OpenAI旗下GPT-4更強大的AI大模型。原因是,他們對人工智慧失控可能產生的毀滅性影響表示擔憂。
隨後,奧爾特曼在2023年上半年積極參與了美國政府部門「人工智慧監管」的聽證會,並多次公開表示對人工智慧監管的支持。超對齊團隊隨後成立。 OpenAI在該團隊成立時曾承諾,會把20%算力資源用於該團隊的工作。
不過,2023年12月以後,超對齊團隊的工作陷入停滯。當時它們發布了最後一篇論文。有媒體報道,超對齊團隊從未分配到被許諾的20%計算資源。它在公司每季定期算力分配中獲得的資源很少,其需求經常被管理層拒絕。這導致超對齊團隊的研究進展受阻。
這被認為是超對齊團隊成員離職的重要原因。這次超對齊團隊成員離職並非孤例。 2021年至今,OpenAI安全領域的多位技術專家頻繁離職。一條長期存在的矛盾主線是,安全專家不滿奧爾特曼激進推動AI技術,對安全問題不夠重視。
一種說法是,在算力資源有限的前提下,OpenAI將承諾給安全領域的投入用到了提升模型效果。雷克公開表示,過去幾年,安全、流程已不再是OpenAI首要關注的問題,光鮮亮麗的產品才是重點。 |
評分
-
總評分: 名聲 + 6
金幣 + 6
查看全部評分
|
免責聲明:本文所載資料僅供參考,本人對該資料或使用該資料所導致的結果概不承擔任何責任.本人已盡告知讀者之義務!,且並無意違反兒童及少年性剝削防制條例第40條所稱『以宣傳品、出版品、廣播、電視、電信、網際網路或其他方法,散布、傳送、刊登或張貼足以引誘、媒介、暗示或其他使兒童或少年有遭受第二條第一項第一款至第三款之虞之訊息』請讀者自重!本文為網路創作,與現實之人事物無關,內容如與現實雷同,純屬巧合!以上純屬夢境,一切都是假的,假如你以為是真的,建議去檢查視力,你眼睛業障太重