OpenAI風波引發思考:DAO模式能否優化AI組織治理

robot
摘要生成中

從OpenAI治理風波看未來AI組織結構

近期,OpenAI內部的一場治理風波引發了業界廣泛關注。有觀點認爲,如果OpenAI採用去中心化自治組織(DAO)的形式,或許能夠避免此類事件的發生。這一觀點值得深入探討。

OpenAI作爲一家致力於開發安全通用人工智能(AGI)並造福全人類的非營利機構,其使命與許多DAO組織頗爲相似。然而,OpenAI當前面臨的問題並非源於其組織結構,而是由於治理規則的模糊和不合理導致。

例如,OpenAI董事會作爲最高權力機構,原本由9人組成,但目前僅剩6人。若成員繼續減少至3人,僅需兩票即可決定公司命運,這顯然存在重大風險。此外,像更換CEO這樣的重大決策竟未經全體董事會充分討論,也未考慮其他利益相關方的意見,缺乏必要的透明度和協商過程。

即便是營利性質的上市公司,也需要引入獨立董事來提升治理透明度,更好地代表非控股股東和公衆利益。對於OpenAI這樣一個關乎科技發展、社會安全乃至人類命運的重要機構而言,現有的治理機制明顯不夠完善。借鑑DAO的治理模式,爲OpenAI設計一個更加穩健、透明和包容的治理結構,不失爲一個值得考慮的方向。

觀點:如果OpenAI是個DAO ,能避免這場治理鬧劇嗎?

值得注意的是,DAO最初被提出時,其目標是通過代碼構建一個自洽的系統,最大程度排除人爲幹擾,體現自主性。然而,當需要人爲協調時,DAO就失去了原本的自主性。目前,大多數DAO實際上都依賴人爲治理,代碼約束只是輔助手段。DAO的核心特點已從自主性轉變爲社區驅動,代表更廣泛的利益和參與機會。

同樣,AGI的目標也是追求自主性。OpenAI將AGI定義爲一個高度自主的系統,能在大多數具有經濟價值的工作中超越人類。盡管AGI的自主性更多體現在行爲能力上,但從本質上看,AGI和DAO都旨在構建真正自主的系統。那麼,我們應該如何治理這樣的自主系統?是更依賴內在的人類價值觀對齊,還是加強外部約束?這是從語言模型到AGI發展過程中亟需思考的問題。

觀點:如果OpenAI是個DAO ,能避免這場治理鬧劇嗎?

OpenAI此次風波的最新發展顯示,高達90%的員工表示願意辭職並追隨Sam Altman。這一現象呼應了DAO領域一個經典爭論:究竟是代碼約束的規則更重要,還是社區的羣體共識更爲關鍵?

盡管規則和約束能形成許多共識,但真正偉大的共識往往不是由規則鑄就的。只有共同的使命感和文化價值觀,才能真正達成深刻的共鳴和一致性。我們已經知道如何在人與人之間創造這種共鳴,那麼對於AI來說,又該如何實現呢?這個問題值得我們深入思考。

觀點:如果OpenAI是個DAO ,能避免這場治理鬧劇嗎?

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 讚賞
  • 4
  • 分享
留言
0/400
ForkMongervip
· 14小時前
嘲笑他们的治理混乱... 检测到分叉信号
查看原文回復0
rekt_but_resilientvip
· 07-11 07:43
哪个DAO靠谱了吗
回復0
空投碎梦师vip
· 07-11 07:43
治理个der 还是撕币赚钱吧
回復0
代码审计姐vip
· 07-11 07:36
治理漏洞比智能合约漏洞更危险
回復0
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)