OpenAI開出年薪$55.5萬+股票 招聘這壹崗位
聊天機器人ChatGPT開發商OpenAI願意支付55.5萬美元年薪外加股票報酬,聘請壹位主管,專門負責減輕AI帶來的負面沖擊。
盡管高薪誘人,但要承擔的職責可不小,因為AI有許多負面沖擊,包括導致就業機會流失、假訊息、惡意人士濫用、環境破壞,以及人類逐漸喪失自主行動力等等。
OpenA執行長奧特曼(Sam Altman)上周六在社交媒體 X 貼文中,形容這份工作“壓力山大”(a stressful job)。他寫道:“你幾乎會立刻被丟進泳池深水區(意指要獨自應付壹個棘手且困難的環境)。”
奧特曼說,“風險應變主管(Head of Preparedness)”這個職位“會在重要時刻扮演關鍵角色”。
他寫道:“模型正在快速改善,現在已能做到許多厲害的事情,但同時也開始帶來壹些重大挑戰。在2025年,我們就已初步看到模型對心理健康可能產生的影響;而現在,模型在電腦安全領域的能力也變得如此先進,甚至開始自行發現關鍵漏洞。”
奧特曼說:“我們在衡量模型能力成長方面已具備穩固基礎,但正邁入壹個需要更細致理解與評估的新階段,不僅要了解這些能力可能如何被濫用,也必須思考如何在產品層面及整個世界中限制其負面影響。”
ChatGPT帶動AI聊天機器人在消費市場迅速普及,許多使用者利用這項技術來查資料、撰寫電郵、規劃旅行,或完成其他簡單任務。

然而,也有部分使用者將聊天機器人當作心理諮商的替代方案,這在某些情況下反而加劇心理健康問題,包括助長妄想與其他令人憂心的行為。
OpenAI在10月表示,正與心理健康專家合作,改善ChatGPT在面對出現精神病症狀、自殘傾向這類令人擔憂行為的使用者時的互動方式。
OpenAI最初核心使命,是以造福全人類的方式發展AI,因此壹開始就將安全機制視為營運核心的壹環。然而,隨著產品逐步推出、以及獲利壓力增加,壹些前員工表示,公司開始將獲利置於安全之上。
曾領導OpenAI安全團隊(現已解散)的萊克(Jan Leiki)去年5月在X上宣布辭職並同時發出批評,公司已偏離確保技術安全部署的使命,“打造比人類更聰明的機器,本質上就是項危險的事。OpenAI正代表全人類承擔極其重大的責任。但在過去幾年裡,安全文化與流程卻被光鮮亮麗的產品擠到壹旁。”
不到壹周後,另壹名員工也在X上宣布辭職,也提出同樣的安全疑慮。前員工Daniel Kokotajlo在2024年5月的壹篇部落格文章中表示,他辭職是因為“對公司在通用人工智慧(AGI)出現前後是否能負責任行事,逐漸失去信心”。
OpenAI的前任“風險應變主管”Aleksander Madry去年7月轉任新職。這壹職位隸屬於OpenAI的安全系統團隊,負責為模型建立防護機制、框架與評估制度。這份工作的年薪為55.5萬美元,另加股票報酬。
職缺說明顯示:“你將直接負責領導並協調能力評估、威脅模型與緩解措施,打造壹套壹致、嚴謹且可在營運上擴展的安全流程體系。”
[物價飛漲的時候 這樣省錢購物很爽]
無評論不新聞,發表壹下您的意見吧
盡管高薪誘人,但要承擔的職責可不小,因為AI有許多負面沖擊,包括導致就業機會流失、假訊息、惡意人士濫用、環境破壞,以及人類逐漸喪失自主行動力等等。
OpenA執行長奧特曼(Sam Altman)上周六在社交媒體 X 貼文中,形容這份工作“壓力山大”(a stressful job)。他寫道:“你幾乎會立刻被丟進泳池深水區(意指要獨自應付壹個棘手且困難的環境)。”
奧特曼說,“風險應變主管(Head of Preparedness)”這個職位“會在重要時刻扮演關鍵角色”。
他寫道:“模型正在快速改善,現在已能做到許多厲害的事情,但同時也開始帶來壹些重大挑戰。在2025年,我們就已初步看到模型對心理健康可能產生的影響;而現在,模型在電腦安全領域的能力也變得如此先進,甚至開始自行發現關鍵漏洞。”
奧特曼說:“我們在衡量模型能力成長方面已具備穩固基礎,但正邁入壹個需要更細致理解與評估的新階段,不僅要了解這些能力可能如何被濫用,也必須思考如何在產品層面及整個世界中限制其負面影響。”
ChatGPT帶動AI聊天機器人在消費市場迅速普及,許多使用者利用這項技術來查資料、撰寫電郵、規劃旅行,或完成其他簡單任務。
然而,也有部分使用者將聊天機器人當作心理諮商的替代方案,這在某些情況下反而加劇心理健康問題,包括助長妄想與其他令人憂心的行為。
OpenAI在10月表示,正與心理健康專家合作,改善ChatGPT在面對出現精神病症狀、自殘傾向這類令人擔憂行為的使用者時的互動方式。
OpenAI最初核心使命,是以造福全人類的方式發展AI,因此壹開始就將安全機制視為營運核心的壹環。然而,隨著產品逐步推出、以及獲利壓力增加,壹些前員工表示,公司開始將獲利置於安全之上。
曾領導OpenAI安全團隊(現已解散)的萊克(Jan Leiki)去年5月在X上宣布辭職並同時發出批評,公司已偏離確保技術安全部署的使命,“打造比人類更聰明的機器,本質上就是項危險的事。OpenAI正代表全人類承擔極其重大的責任。但在過去幾年裡,安全文化與流程卻被光鮮亮麗的產品擠到壹旁。”
不到壹周後,另壹名員工也在X上宣布辭職,也提出同樣的安全疑慮。前員工Daniel Kokotajlo在2024年5月的壹篇部落格文章中表示,他辭職是因為“對公司在通用人工智慧(AGI)出現前後是否能負責任行事,逐漸失去信心”。
OpenAI的前任“風險應變主管”Aleksander Madry去年7月轉任新職。這壹職位隸屬於OpenAI的安全系統團隊,負責為模型建立防護機制、框架與評估制度。這份工作的年薪為55.5萬美元,另加股票報酬。
職缺說明顯示:“你將直接負責領導並協調能力評估、威脅模型與緩解措施,打造壹套壹致、嚴謹且可在營運上擴展的安全流程體系。”
[物價飛漲的時候 這樣省錢購物很爽]
| 分享: |
| 注: |
| 延伸閱讀 |
推薦:



