La controversia de OpenAI suscita reflexiones: ¿Puede el modelo DAO optimizar la gobernanza de las organizaciones de IA?

robot
Generación de resúmenes en curso

Desde la controversia de gobernanza de OpenAI, miramos la futura estructura organizativa de la IA

Recientemente, una controversia de gobernanza interna en OpenAI ha llamado la atención de la industria. Hay opiniones que sugieren que si OpenAI adoptara la forma de una organización autónoma descentralizada (DAO), podría evitar la ocurrencia de este tipo de eventos. Esta opinión merece una discusión más profunda.

OpenAI, como una organización sin fines de lucro dedicada al desarrollo de inteligencia artificial general (AGI) segura y beneficiosa para toda la humanidad, tiene una misión que es bastante similar a la de muchas organizaciones DAO. Sin embargo, el problema actual de OpenAI no proviene de su estructura organizativa, sino de la ambigüedad e irracionalidad de las reglas de gobernanza.

Por ejemplo, la junta directiva de OpenAI, como el máximo órgano de poder, originalmente estaba compuesta por 9 personas, pero actualmente solo quedan 6. Si el número de miembros continúa disminuyendo a 3, solo se necesitarían dos votos para decidir el destino de la empresa, lo que claramente representa un riesgo significativo. Además, decisiones importantes como el cambio de CEO se toman sin una discusión adecuada por parte de toda la junta y sin considerar las opiniones de otros interesados, lo que carece de la transparencia y el proceso de consulta necesarios.

Incluso las empresas que son de naturaleza lucrativa necesitan introducir directores independientes para mejorar la transparencia de la gobernanza y representar mejor los intereses de los accionistas minoritarios y del público. En el caso de OpenAI, que es una institución crucial para el desarrollo tecnológico, la seguridad social e incluso el destino de la humanidad, el mecanismo de gobernanza existente es claramente insuficiente. Tomar como referencia el modelo de gobernanza de las DAO para diseñar una estructura de gobernanza más robusta, transparente e inclusiva para OpenAI es sin duda una dirección que merece ser considerada.

Opinión: ¿Podría evitarse este espectáculo de gobernanza si OpenAI fuera un DAO?

Es importante señalar que, cuando se propuso por primera vez el DAO, su objetivo era construir un sistema coherente a través del código, minimizando la interferencia humana y reflejando la autonomía. Sin embargo, cuando se requiere coordinación humana, el DAO pierde su autonomía original. Actualmente, la mayoría de los DAO dependen en realidad de la gobernanza humana, y las restricciones de código son solo un medio auxiliar. La característica central del DAO ha pasado de ser la autonomía a ser impulsada por la comunidad, representando intereses y oportunidades de participación más amplias.

De igual manera, el objetivo de la AGI es también perseguir la autonomía. OpenAI define la AGI como un sistema altamente autónomo que puede superar a los humanos en la mayoría de los trabajos de valor económico. Aunque la autonomía de la AGI se manifiesta más en la capacidad de comportamiento, en esencia, tanto la AGI como la DAO tienen como objetivo construir sistemas verdaderamente autónomos. Entonces, ¿cómo deberíamos gobernar tales sistemas autónomos? ¿Deberíamos depender más de la alineación con los valores humanos intrínsecos o fortalecer las restricciones externas? Esta es una cuestión que necesita ser considerada urgentemente en el proceso de desarrollo de modelos de lenguaje a AGI.

Opinión: ¿Podría evitarse esta comedia de gobernanza si OpenAI fuera un DAO?

Los últimos desarrollos de la controversia de OpenAI muestran que hasta el 90% de los empleados están dispuestos a renunciar y seguir a Sam Altman. Este fenómeno refleja un debate clásico en el ámbito de DAO: ¿son más importantes las reglas impuestas por el código o es más clave el consenso comunitario?

A pesar de que las reglas y restricciones pueden formar muchos consensos, el verdadero gran consenso a menudo no se forja a través de reglas. Solo un sentido de misión compartida y valores culturales pueden lograr realmente una profunda resonancia y coherencia. Ya sabemos cómo crear esta resonancia entre las personas, entonces, ¿cómo se puede lograr para la IA? Esta pregunta merece que la pensemos en profundidad.

Opinión: ¿Podría OpenAI ser un DAO para evitar esta farsa de gobernanza?

Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Recompensa
  • 4
  • Compartir
Comentar
0/400
ForkMongervip
· hace2h
riendo ante su caos de gobernanza... señal de fork detectada
Ver originalesResponder0
rekt_but_resilientvip
· 07-11 07:43
¿Qué DAO es confiable ahora?
Ver originalesResponder0
AirdropDreamBreakervip
· 07-11 07:43
Mejor ganar dinero con el der de gobernanza o con moneda.
Ver originalesResponder0
CodeAuditQueenvip
· 07-11 07:36
Las vulnerabilidades de gobernanza son más peligrosas que las vulnerabilidades de contratos inteligentes.
Ver originalesResponder0
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)