A partir da turbulência da governança da OpenAI, olhemos para a futura estrutura organizacional da IA
Recentemente, uma controvérsia interna na OpenAI chamou a atenção de todo o setor. Há quem acredite que, se a OpenAI adotasse a forma de uma organização autônoma descentralizada (DAO), talvez pudesse evitar a ocorrência de tais eventos. Esta ideia merece uma discussão mais aprofundada.
A OpenAI, como uma organização sem fins lucrativos dedicada ao desenvolvimento de inteligência artificial geral segura (AGI) para beneficiar toda a humanidade, tem uma missão bastante semelhante à de muitas organizações DAO. No entanto, os problemas que a OpenAI enfrenta atualmente não decorrem da sua estrutura organizacional, mas sim da ambiguidade e da irracionalidade das regras de governança.
Por exemplo, o conselho da OpenAI, como a máxima autoridade, era originalmente composto por 9 pessoas, mas atualmente restam apenas 6. Se o número de membros continuar a diminuir para 3, bastariam apenas dois votos para decidir o destino da empresa, o que claramente representa um risco significativo. Além disso, decisões importantes, como a troca de CEO, foram tomadas sem uma discussão adequada entre todos os membros do conselho, e sem considerar a opinião de outras partes interessadas, faltando a necessária transparência e processo de consulta.
Mesmo as empresas públicas com fins lucrativos precisam introduzir diretores independentes para aumentar a transparência da governança e melhor representar os interesses dos acionistas minoritários e do público. Para uma instituição tão importante como a OpenAI, que está relacionada ao desenvolvimento tecnológico, à segurança social e ao destino da humanidade, os mecanismos de governança existentes são claramente insuficientes. Inspirar-se no modelo de governança das DAOs para projetar uma estrutura de governança mais robusta, transparente e inclusiva para a OpenAI é uma direção que vale a pena considerar.
É importante notar que, quando o DAO foi inicialmente proposto, seu objetivo era construir um sistema autossuficiente através de código, minimizando a interferência humana e refletindo autonomia. No entanto, quando a coordenação humana se torna necessária, o DAO perde sua autonomia original. Atualmente, a maioria dos DAOs depende, na verdade, da governança humana, sendo as restrições de código apenas um meio auxiliar. As características centrais do DAO mudaram de autonomia para uma abordagem orientada pela comunidade, representando interesses e oportunidades de participação mais amplos.
Da mesma forma, o objetivo da AGI é também buscar autonomia. A OpenAI define a AGI como um sistema altamente autônomo, capaz de superar os humanos em muitos trabalhos de valor econômico. Embora a autonomia da AGI se manifeste mais na capacidade de agir, essencialmente, tanto a AGI quanto a DAO visam construir sistemas verdadeiramente autônomos. Então, como devemos governar tais sistemas autônomos? Devemos confiar mais na alocação intrínseca dos valores humanos ou reforçar as restrições externas? Esta é uma questão que precisa ser considerada no processo de desenvolvimento de modelos de linguagem para AGI.
O mais recente desenvolvimento da controvérsia da OpenAI mostra que até 90% dos funcionários estão dispostos a se demitir e seguir Sam Altman. Este fenômeno reflete um debate clássico no campo das DAOs: qual é mais importante, as regras impostas pelo código ou o consenso coletivo da comunidade?
Embora regras e restrições possam formar muitos consensos, o verdadeiro grande consenso muitas vezes não é forjado por regras. Apenas um sentimento de missão compartilhada e valores culturais podem realmente alcançar uma ressonância e consistência profundas. Já sabemos como criar essa ressonância entre as pessoas, então como podemos realizá-la para a IA? Esta é uma questão que merece nossa reflexão profunda.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
7 Curtidas
Recompensa
7
4
Compartilhar
Comentário
0/400
ForkMonger
· 4h atrás
rindo do caos da governança deles... sinal de forquilha detectado
Ver originalResponder0
rekt_but_resilient
· 07-11 07:43
Qual DAO é confiável agora?
Ver originalResponder0
AirdropDreamBreaker
· 07-11 07:43
Governar é melhor do que ganhar moeda com a destruição.
Ver originalResponder0
CodeAuditQueen
· 07-11 07:36
Vulnerabilidades de governança são mais perigosas do que vulnerabilidades de contratos inteligentes.
A controvérsia da OpenAI suscita reflexão: o modelo DAO pode otimizar a governança organizacional da IA
A partir da turbulência da governança da OpenAI, olhemos para a futura estrutura organizacional da IA
Recentemente, uma controvérsia interna na OpenAI chamou a atenção de todo o setor. Há quem acredite que, se a OpenAI adotasse a forma de uma organização autônoma descentralizada (DAO), talvez pudesse evitar a ocorrência de tais eventos. Esta ideia merece uma discussão mais aprofundada.
A OpenAI, como uma organização sem fins lucrativos dedicada ao desenvolvimento de inteligência artificial geral segura (AGI) para beneficiar toda a humanidade, tem uma missão bastante semelhante à de muitas organizações DAO. No entanto, os problemas que a OpenAI enfrenta atualmente não decorrem da sua estrutura organizacional, mas sim da ambiguidade e da irracionalidade das regras de governança.
Por exemplo, o conselho da OpenAI, como a máxima autoridade, era originalmente composto por 9 pessoas, mas atualmente restam apenas 6. Se o número de membros continuar a diminuir para 3, bastariam apenas dois votos para decidir o destino da empresa, o que claramente representa um risco significativo. Além disso, decisões importantes, como a troca de CEO, foram tomadas sem uma discussão adequada entre todos os membros do conselho, e sem considerar a opinião de outras partes interessadas, faltando a necessária transparência e processo de consulta.
Mesmo as empresas públicas com fins lucrativos precisam introduzir diretores independentes para aumentar a transparência da governança e melhor representar os interesses dos acionistas minoritários e do público. Para uma instituição tão importante como a OpenAI, que está relacionada ao desenvolvimento tecnológico, à segurança social e ao destino da humanidade, os mecanismos de governança existentes são claramente insuficientes. Inspirar-se no modelo de governança das DAOs para projetar uma estrutura de governança mais robusta, transparente e inclusiva para a OpenAI é uma direção que vale a pena considerar.
É importante notar que, quando o DAO foi inicialmente proposto, seu objetivo era construir um sistema autossuficiente através de código, minimizando a interferência humana e refletindo autonomia. No entanto, quando a coordenação humana se torna necessária, o DAO perde sua autonomia original. Atualmente, a maioria dos DAOs depende, na verdade, da governança humana, sendo as restrições de código apenas um meio auxiliar. As características centrais do DAO mudaram de autonomia para uma abordagem orientada pela comunidade, representando interesses e oportunidades de participação mais amplos.
Da mesma forma, o objetivo da AGI é também buscar autonomia. A OpenAI define a AGI como um sistema altamente autônomo, capaz de superar os humanos em muitos trabalhos de valor econômico. Embora a autonomia da AGI se manifeste mais na capacidade de agir, essencialmente, tanto a AGI quanto a DAO visam construir sistemas verdadeiramente autônomos. Então, como devemos governar tais sistemas autônomos? Devemos confiar mais na alocação intrínseca dos valores humanos ou reforçar as restrições externas? Esta é uma questão que precisa ser considerada no processo de desenvolvimento de modelos de linguagem para AGI.
O mais recente desenvolvimento da controvérsia da OpenAI mostra que até 90% dos funcionários estão dispostos a se demitir e seguir Sam Altman. Este fenômeno reflete um debate clássico no campo das DAOs: qual é mais importante, as regras impostas pelo código ou o consenso coletivo da comunidade?
Embora regras e restrições possam formar muitos consensos, o verdadeiro grande consenso muitas vezes não é forjado por regras. Apenas um sentimento de missão compartilhada e valores culturais podem realmente alcançar uma ressonância e consistência profundas. Já sabemos como criar essa ressonância entre as pessoas, então como podemos realizá-la para a IA? Esta é uma questão que merece nossa reflexão profunda.