El año pasado, escribí un artículo sobre el optimismo tecnológico, donde expuse mi entusiasmo por la tecnología y los enormes beneficios que puede traer. Al mismo tiempo, también expresé una actitud cautelosa hacia ciertos problemas, principalmente en relación con la superinteligencia AI y los posibles riesgos de destrucción o pérdida irreversible de poder que puede conllevar.
El núcleo del artículo aboga por una idea de aceleración defensiva que sea descentralizada, democrática y diferenciada. Se debe acelerar el desarrollo tecnológico, al mismo tiempo que se enfoca en mejorar la capacidad defensiva en lugar de la capacidad destructiva, y se compromete a descentralizar el poder, evitando que una minoría de élites represente a todos en la toma de decisiones. El modo de defensa debería ser como la democracia suiza, y no como el castillo de un señor feudal medieval.
A lo largo del año, estas ideas han tenido un desarrollo significativo. Compartí estas perspectivas en la plataforma "80,000 horas" y recibí la mayoría de respuestas positivas, aunque también algunas críticas. Este trabajo ha dado resultados concretos: ha habido avances en el campo de las vacunas de código abierto verificables; se ha reconocido más el valor de tener un aire interior saludable; las "notas comunitarias" continúan desempeñando un papel positivo; los mercados de predicción han tenido un año de avances como herramienta de información; las pruebas de conocimiento cero se han aplicado en la identificación gubernamental y en redes sociales; las herramientas de imagen de código abierto han encontrado aplicaciones en el ámbito médico y en interfaces cerebro-máquina, entre otros.
El otoño pasado, organizamos nuestro primer evento importante de d/acc: "Día de Descubrimiento de d/acc"(d/aDDy), que reunió a oradores de diversos campos de d/acc( biología, física, redes, defensa de la información y tecnología neural). Las personas que han estado trabajando en estas tecnologías durante mucho tiempo conocen mejor el trabajo de los demás, y los forasteros también son cada vez más conscientes de una visión más amplia: los valores que impulsan el desarrollo de Ethereum y las criptomonedas pueden expandirse a un mundo más amplio.
Significado y extensión de d/acc
La idea central de d/acc es: aceleración defensiva descentralizada, democrática y diferenciada. Construir tecnologías que inclinen el equilibrio entre ataque y defensa hacia la defensa, y que en el proceso de implementación no dependen de otorgar más poder a las autoridades centrales. Estos dos aspectos están estrechamente vinculados: cualquier estructura política descentralizada, democrática o libre tiende a prosperar cuando la defensa es fácil de implementar, y enfrenta desafíos cuando la defensa es difícil.
Una forma de comprender e implementar la importancia de la descentralización, la defensa y la aceleración, es compararla con las ideas que surgen al renunciar a cualquiera de estos tres aspectos:
Aceleración descentralizada, pero ignorando la parte de "defensa diferenciada".
Defensa diferenciada acelerada, pero se ignora "descentralización y democracia"
Defensa descentralizada, pero excluye la aceleración
A través de d/acc, nos comprometemos a alcanzar los siguientes objetivos:
Mantener principios en un mundo cada vez más tribal, construyendo cosas específicas para hacer el mundo más seguro y hermoso.
Reconocer que el avance tecnológico exponencial significa que el mundo se volverá extremadamente peculiar, y la "huella" de la humanidad en el universo inevitablemente seguirá aumentando. Nuestra capacidad para proteger lo frágil de los daños debe seguir mejorando, y la única salida es avanzar sin miedo.
Construir tecnología que realmente nos proteja, en lugar de basarse en la suposición de que "las buenas personas ( o la buena IA ) controlan todo". Alcanzamos este objetivo construyendo herramientas que son naturalmente más efectivas para construir y proteger que para destruir.
Una perspectiva alternativa sobre d/acc es regresar al marco del movimiento del Partido Pirata en Europa a finales de los años 2000: empoderamiento. Nuestro objetivo es construir un mundo que pueda preservar la agencia humana, logrando la libertad negativa, es decir, evitar que otros (, ya sean ciudadanos comunes, gobiernos o superinteligencias ), intervengan activamente en nuestra capacidad de moldear nuestro propio destino, al mismo tiempo que logramos la libertad positiva, es decir, asegurando que tengamos el conocimiento y los recursos para ejercer esta capacidad.
Desafío: Seguridad de la IA, plazos urgentes y dilemas regulatorios
El año pasado, el argumento en contra más convincente que recibí en mi artículo provino de la comunidad de seguridad de IA. Su argumento fue: "Por supuesto, si tuviéramos medio siglo para desarrollar IA fuerte, podríamos centrarnos en construir todas estas cosas beneficiosas. Pero, en realidad, parece que solo podríamos tener tres años para desarrollar IA general y, tres años después, para desarrollar inteligencia superinteligente. Por lo tanto, si no queremos que el mundo caiga en la destrucción o de alguna manera en una crisis irreversible, no podemos simplemente acelerar el desarrollo de tecnologías beneficiosas, sino que también debemos desacelerar el desarrollo de tecnologías dañinas, lo que significa que se necesitan medidas de regulación contundentes que podrían enfurecer a los poderosos."
Razones para tener una actitud cautelosa hacia la nueva regulación:
El año pasado, la principal propuesta de regulación de IA fue la ley SB-1047 de California. Exige que los desarrolladores de los modelos más potentes con un costo de entrenamiento de más de 100 millones de dólares o un costo de ajuste fino de más de 10 millones de dólares tomen una serie de medidas de prueba de seguridad antes de su lanzamiento. Si los desarrolladores de modelos de IA no actúan con suficiente precaución, se les hará responsables. Muchos críticos creen que esta ley "representa una amenaza para el código abierto"; yo difiero, ya que el umbral de costo significa que solo afecta a los modelos más potentes. Sin embargo, al mirar hacia atrás, creo que esta ley tiene un problema más grave: como la mayoría de las medidas regulatorias, se adapta en exceso a la situación actual. La preocupación por los costos de entrenamiento ha demostrado ser frágil ante las nuevas tecnologías: el costo de entrenamiento del modelo DeepSeek v3, que es de última generación, fue de solo 6 millones de dólares, y en nuevos modelos como o1, los costos a menudo se trasladan más a la fase de inferencia que a la de entrenamiento.
Los actores más propensos a ser responsables de un escenario de destrucción por inteligencia artificial superinteligente:
De hecho, los actores más propensos a ser responsables de un escenario de destrucción por superinteligencia artificial son los ejércitos. Como hemos visto en los últimos cincuenta años en materia de bioseguridad ( y en épocas anteriores ), los ejércitos están dispuestos a llevar a cabo algunas acciones aterradoras y son propensos a cometer errores. Hoy en día, la aplicación de la IA en el ámbito militar se está desarrollando rápidamente (, como se ha visto en Ucrania y en la región de Gaza ). Además, cualquier medida de regulación de seguridad aprobada por un gobierno, en términos generales, exime automáticamente a sus propias fuerzas armadas y a las empresas que colaboran estrechamente con ellas.
Estrategia de respuesta:
Sin embargo, estos argumentos no son razones que nos dejen sin opciones. Por el contrario, podemos tomarlos como una guía e intentar formular reglas que generen la menor cantidad de preocupaciones posibles.
Estrategia 1: Responsabilidad
Si el comportamiento de alguien causa daños que pueden ser legalmente responsables, podrían ser demandados. Esto no resuelve el problema de los riesgos que provienen de las fuerzas armadas y otros actores "por encima de la ley", pero es un enfoque muy general que evita el sobreajuste, por lo que los economistas que tienden al libertarismo suelen apoyar esta práctica.
Los principales objetivos de responsabilidad considerados hasta ahora son los siguientes:
Usuario: la persona que utiliza la IA.
Desplegador: intermediario que proporciona servicios de IA a los usuarios.
Desarrollador: la persona que construye la IA.
Atribuir la responsabilidad al usuario parece ser lo más acorde con el mecanismo de incentivos. Aunque la conexión entre la forma en que se desarrolla el modelo y la forma en que se utiliza finalmente suele ser poco clara, el usuario decide la forma específica de uso de la IA. Atribuir responsabilidad al usuario genera una presión poderosa que impulsa a las personas a utilizar la IA de la manera que considero correcta: enfocándose en construir un conjunto mecánico para el pensamiento humano, en lugar de crear nuevas formas de vida inteligente auto-sostenidas. La primera opción respondería periódicamente a las intenciones del usuario, por lo que, a menos que el usuario lo desee, no llevaría a acciones catastróficas. La segunda opción, por otro lado, conlleva el mayor riesgo de perder el control y desencadenar el clásico escenario de "pérdida de control de la IA". Otro beneficio de acercar la responsabilidad tanto como sea posible al extremo de uso final es que minimiza el riesgo de que la responsabilidad lleve a las personas a tomar acciones perjudiciales en otros aspectos, como el cierre de código, conocer a tu cliente ( KYC ) y monitoreo, la colusión entre estados/empresas que limita secretamente a los usuarios, como los bancos que se niegan a prestar servicios a ciertos clientes, excluyendo vastas áreas del mundo (.
Hay un punto de vista clásico en contra de atribuir únicamente la responsabilidad a los usuarios: los usuarios pueden ser individuos comunes, sin mucho dinero, e incluso pueden ser anónimos, de modo que nadie puede hacerse cargo realmente de los daños catastróficos. Este punto de vista puede estar exagerado: aunque algunos usuarios son demasiado pequeños para asumir la responsabilidad, los clientes comunes de los desarrolladores de IA no lo son, por lo que los desarrolladores de IA todavía estarán incentivados a construir productos que aseguren a los usuarios que no enfrentarán altos riesgos de responsabilidad. Es decir, sigue siendo un punto de vista válido que necesita ser abordado. Necesitas incentivar a alguien con recursos en la cadena de responsabilidad para que tome las medidas de precaución adecuadas, y tanto los desplegadores como los desarrolladores son objetivos fácilmente identificables, ya que todavía tienen un gran impacto en la seguridad del modelo.
La responsabilidad del desplegador parece razonable. Una preocupación común es que no funcione con modelos de código abierto, pero esto parece ser manejable, especialmente porque es probable que los modelos más potentes sean de código cerrado ). Si los resultados son de código abierto, entonces, aunque la responsabilidad del desplegador puede no ser muy útil al final, tampoco causará demasiados daños (. La responsabilidad del desarrollador también presenta las mismas preocupaciones ). Aunque para los modelos de código abierto, hay cierta barrera para ajustar los modelos para que hagan cosas que normalmente no se permiten (, los mismos argumentos en contra también son aplicables. Como principio general, imponer una "tasa" al control, en esencia, significa que "puedes construir cosas que no puedes controlar, o puedes construir cosas que puedes controlar, pero si construyes cosas que puedes controlar, entonces el 20% del control debe destinarse a nuestros fines", esto parece ser la postura razonable que debería tener el sistema legal.
![Vitalik nuevo artículo: ¿Cómo se entrelazan el aceleracionismo descentralizado, las criptomonedas y la IA?])https://img-cdn.gateio.im/webp-social/moments-464eec9622a1aadced54930095728902.webp(
Una idea que parece no haber sido suficientemente explorada es atribuir la responsabilidad a otros actores en la cadena, quienes son más propensos a tener recursos suficientes. Una idea que se alinea muy bien con la filosofía d/acc es responsabilizar a los propietarios u operadores de cualquier dispositivo que sea hackeado, por ejemplo, en el proceso de que la IA ejecute ciertas acciones desastrosamente perjudiciales, como tomar control de ). Esto crearía un incentivo muy amplio, motivando a las personas a esforzarse por hacer que el mundo (, especialmente la infraestructura en los campos de la computación y la biología ), sea lo más segura posible.
Estrategia 2: Botón de "pausa suave" global en hardware de escala industrial
Si estoy convencido de que necesitamos medidas más "fuertes" que las reglas de responsabilidad, elegiría esta estrategia. El objetivo es tener la capacidad de reducir la capacidad computacional global disponible en aproximadamente un 90%-99% durante un período de 1 a 2 años, para ganar más tiempo de preparación para la humanidad. El valor de 1 a 2 años no debe ser sobreestimado: un "modo de guerra" de un año puede equivaler fácilmente a cien años de trabajo convencional en circunstancias de complacencia. Se están explorando métodos para lograr una "pausa", incluidos algunos propuestas concretas, como exigir el registro de hardware y la verificación de ubicación.
Un enfoque más avanzado es utilizar ingeniosos métodos de criptografía: por ejemplo, el hardware de inteligencia artificial a escala industrial (, pero no a nivel de consumo ), puede estar equipado con un chip de hardware confiable, que solo se permitirá seguir funcionando si recibe una firma 3/3 de las principales instituciones internacionales (, incluyendo al menos una agencia no militar ), cada semana. Estas firmas serán independientes del dispositivo ( y, si es necesario, incluso podemos requerir la publicación de una prueba de conocimiento cero en la blockchain ), por lo que será todo o nada: no habrá forma práctica de autorizar un dispositivo para que continúe funcionando sin autorizar todos los demás dispositivos.
Esto parece "cumplir con los requisitos" en términos de maximizar beneficios y minimizar riesgos:
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
12 me gusta
Recompensa
12
3
Compartir
Comentar
0/400
Ser_APY_2000
· hace8h
Una mirada al agua, vestida de pureza y profundidad.
d/acc un año: Progresos en la aceleración de la defensa y reflexiones sobre la regulación de la IA
d/acc: Revisión de un año después
El año pasado, escribí un artículo sobre el optimismo tecnológico, donde expuse mi entusiasmo por la tecnología y los enormes beneficios que puede traer. Al mismo tiempo, también expresé una actitud cautelosa hacia ciertos problemas, principalmente en relación con la superinteligencia AI y los posibles riesgos de destrucción o pérdida irreversible de poder que puede conllevar.
El núcleo del artículo aboga por una idea de aceleración defensiva que sea descentralizada, democrática y diferenciada. Se debe acelerar el desarrollo tecnológico, al mismo tiempo que se enfoca en mejorar la capacidad defensiva en lugar de la capacidad destructiva, y se compromete a descentralizar el poder, evitando que una minoría de élites represente a todos en la toma de decisiones. El modo de defensa debería ser como la democracia suiza, y no como el castillo de un señor feudal medieval.
A lo largo del año, estas ideas han tenido un desarrollo significativo. Compartí estas perspectivas en la plataforma "80,000 horas" y recibí la mayoría de respuestas positivas, aunque también algunas críticas. Este trabajo ha dado resultados concretos: ha habido avances en el campo de las vacunas de código abierto verificables; se ha reconocido más el valor de tener un aire interior saludable; las "notas comunitarias" continúan desempeñando un papel positivo; los mercados de predicción han tenido un año de avances como herramienta de información; las pruebas de conocimiento cero se han aplicado en la identificación gubernamental y en redes sociales; las herramientas de imagen de código abierto han encontrado aplicaciones en el ámbito médico y en interfaces cerebro-máquina, entre otros.
El otoño pasado, organizamos nuestro primer evento importante de d/acc: "Día de Descubrimiento de d/acc"(d/aDDy), que reunió a oradores de diversos campos de d/acc( biología, física, redes, defensa de la información y tecnología neural). Las personas que han estado trabajando en estas tecnologías durante mucho tiempo conocen mejor el trabajo de los demás, y los forasteros también son cada vez más conscientes de una visión más amplia: los valores que impulsan el desarrollo de Ethereum y las criptomonedas pueden expandirse a un mundo más amplio.
Significado y extensión de d/acc
La idea central de d/acc es: aceleración defensiva descentralizada, democrática y diferenciada. Construir tecnologías que inclinen el equilibrio entre ataque y defensa hacia la defensa, y que en el proceso de implementación no dependen de otorgar más poder a las autoridades centrales. Estos dos aspectos están estrechamente vinculados: cualquier estructura política descentralizada, democrática o libre tiende a prosperar cuando la defensa es fácil de implementar, y enfrenta desafíos cuando la defensa es difícil.
Una forma de comprender e implementar la importancia de la descentralización, la defensa y la aceleración, es compararla con las ideas que surgen al renunciar a cualquiera de estos tres aspectos:
A través de d/acc, nos comprometemos a alcanzar los siguientes objetivos:
Mantener principios en un mundo cada vez más tribal, construyendo cosas específicas para hacer el mundo más seguro y hermoso.
Reconocer que el avance tecnológico exponencial significa que el mundo se volverá extremadamente peculiar, y la "huella" de la humanidad en el universo inevitablemente seguirá aumentando. Nuestra capacidad para proteger lo frágil de los daños debe seguir mejorando, y la única salida es avanzar sin miedo.
Construir tecnología que realmente nos proteja, en lugar de basarse en la suposición de que "las buenas personas ( o la buena IA ) controlan todo". Alcanzamos este objetivo construyendo herramientas que son naturalmente más efectivas para construir y proteger que para destruir.
Una perspectiva alternativa sobre d/acc es regresar al marco del movimiento del Partido Pirata en Europa a finales de los años 2000: empoderamiento. Nuestro objetivo es construir un mundo que pueda preservar la agencia humana, logrando la libertad negativa, es decir, evitar que otros (, ya sean ciudadanos comunes, gobiernos o superinteligencias ), intervengan activamente en nuestra capacidad de moldear nuestro propio destino, al mismo tiempo que logramos la libertad positiva, es decir, asegurando que tengamos el conocimiento y los recursos para ejercer esta capacidad.
Desafío: Seguridad de la IA, plazos urgentes y dilemas regulatorios
El año pasado, el argumento en contra más convincente que recibí en mi artículo provino de la comunidad de seguridad de IA. Su argumento fue: "Por supuesto, si tuviéramos medio siglo para desarrollar IA fuerte, podríamos centrarnos en construir todas estas cosas beneficiosas. Pero, en realidad, parece que solo podríamos tener tres años para desarrollar IA general y, tres años después, para desarrollar inteligencia superinteligente. Por lo tanto, si no queremos que el mundo caiga en la destrucción o de alguna manera en una crisis irreversible, no podemos simplemente acelerar el desarrollo de tecnologías beneficiosas, sino que también debemos desacelerar el desarrollo de tecnologías dañinas, lo que significa que se necesitan medidas de regulación contundentes que podrían enfurecer a los poderosos."
Razones para tener una actitud cautelosa hacia la nueva regulación:
El año pasado, la principal propuesta de regulación de IA fue la ley SB-1047 de California. Exige que los desarrolladores de los modelos más potentes con un costo de entrenamiento de más de 100 millones de dólares o un costo de ajuste fino de más de 10 millones de dólares tomen una serie de medidas de prueba de seguridad antes de su lanzamiento. Si los desarrolladores de modelos de IA no actúan con suficiente precaución, se les hará responsables. Muchos críticos creen que esta ley "representa una amenaza para el código abierto"; yo difiero, ya que el umbral de costo significa que solo afecta a los modelos más potentes. Sin embargo, al mirar hacia atrás, creo que esta ley tiene un problema más grave: como la mayoría de las medidas regulatorias, se adapta en exceso a la situación actual. La preocupación por los costos de entrenamiento ha demostrado ser frágil ante las nuevas tecnologías: el costo de entrenamiento del modelo DeepSeek v3, que es de última generación, fue de solo 6 millones de dólares, y en nuevos modelos como o1, los costos a menudo se trasladan más a la fase de inferencia que a la de entrenamiento.
Los actores más propensos a ser responsables de un escenario de destrucción por inteligencia artificial superinteligente:
De hecho, los actores más propensos a ser responsables de un escenario de destrucción por superinteligencia artificial son los ejércitos. Como hemos visto en los últimos cincuenta años en materia de bioseguridad ( y en épocas anteriores ), los ejércitos están dispuestos a llevar a cabo algunas acciones aterradoras y son propensos a cometer errores. Hoy en día, la aplicación de la IA en el ámbito militar se está desarrollando rápidamente (, como se ha visto en Ucrania y en la región de Gaza ). Además, cualquier medida de regulación de seguridad aprobada por un gobierno, en términos generales, exime automáticamente a sus propias fuerzas armadas y a las empresas que colaboran estrechamente con ellas.
Estrategia de respuesta:
Sin embargo, estos argumentos no son razones que nos dejen sin opciones. Por el contrario, podemos tomarlos como una guía e intentar formular reglas que generen la menor cantidad de preocupaciones posibles.
Estrategia 1: Responsabilidad
Si el comportamiento de alguien causa daños que pueden ser legalmente responsables, podrían ser demandados. Esto no resuelve el problema de los riesgos que provienen de las fuerzas armadas y otros actores "por encima de la ley", pero es un enfoque muy general que evita el sobreajuste, por lo que los economistas que tienden al libertarismo suelen apoyar esta práctica.
Los principales objetivos de responsabilidad considerados hasta ahora son los siguientes:
Atribuir la responsabilidad al usuario parece ser lo más acorde con el mecanismo de incentivos. Aunque la conexión entre la forma en que se desarrolla el modelo y la forma en que se utiliza finalmente suele ser poco clara, el usuario decide la forma específica de uso de la IA. Atribuir responsabilidad al usuario genera una presión poderosa que impulsa a las personas a utilizar la IA de la manera que considero correcta: enfocándose en construir un conjunto mecánico para el pensamiento humano, en lugar de crear nuevas formas de vida inteligente auto-sostenidas. La primera opción respondería periódicamente a las intenciones del usuario, por lo que, a menos que el usuario lo desee, no llevaría a acciones catastróficas. La segunda opción, por otro lado, conlleva el mayor riesgo de perder el control y desencadenar el clásico escenario de "pérdida de control de la IA". Otro beneficio de acercar la responsabilidad tanto como sea posible al extremo de uso final es que minimiza el riesgo de que la responsabilidad lleve a las personas a tomar acciones perjudiciales en otros aspectos, como el cierre de código, conocer a tu cliente ( KYC ) y monitoreo, la colusión entre estados/empresas que limita secretamente a los usuarios, como los bancos que se niegan a prestar servicios a ciertos clientes, excluyendo vastas áreas del mundo (.
Hay un punto de vista clásico en contra de atribuir únicamente la responsabilidad a los usuarios: los usuarios pueden ser individuos comunes, sin mucho dinero, e incluso pueden ser anónimos, de modo que nadie puede hacerse cargo realmente de los daños catastróficos. Este punto de vista puede estar exagerado: aunque algunos usuarios son demasiado pequeños para asumir la responsabilidad, los clientes comunes de los desarrolladores de IA no lo son, por lo que los desarrolladores de IA todavía estarán incentivados a construir productos que aseguren a los usuarios que no enfrentarán altos riesgos de responsabilidad. Es decir, sigue siendo un punto de vista válido que necesita ser abordado. Necesitas incentivar a alguien con recursos en la cadena de responsabilidad para que tome las medidas de precaución adecuadas, y tanto los desplegadores como los desarrolladores son objetivos fácilmente identificables, ya que todavía tienen un gran impacto en la seguridad del modelo.
La responsabilidad del desplegador parece razonable. Una preocupación común es que no funcione con modelos de código abierto, pero esto parece ser manejable, especialmente porque es probable que los modelos más potentes sean de código cerrado ). Si los resultados son de código abierto, entonces, aunque la responsabilidad del desplegador puede no ser muy útil al final, tampoco causará demasiados daños (. La responsabilidad del desarrollador también presenta las mismas preocupaciones ). Aunque para los modelos de código abierto, hay cierta barrera para ajustar los modelos para que hagan cosas que normalmente no se permiten (, los mismos argumentos en contra también son aplicables. Como principio general, imponer una "tasa" al control, en esencia, significa que "puedes construir cosas que no puedes controlar, o puedes construir cosas que puedes controlar, pero si construyes cosas que puedes controlar, entonces el 20% del control debe destinarse a nuestros fines", esto parece ser la postura razonable que debería tener el sistema legal.
![Vitalik nuevo artículo: ¿Cómo se entrelazan el aceleracionismo descentralizado, las criptomonedas y la IA?])https://img-cdn.gateio.im/webp-social/moments-464eec9622a1aadced54930095728902.webp(
Una idea que parece no haber sido suficientemente explorada es atribuir la responsabilidad a otros actores en la cadena, quienes son más propensos a tener recursos suficientes. Una idea que se alinea muy bien con la filosofía d/acc es responsabilizar a los propietarios u operadores de cualquier dispositivo que sea hackeado, por ejemplo, en el proceso de que la IA ejecute ciertas acciones desastrosamente perjudiciales, como tomar control de ). Esto crearía un incentivo muy amplio, motivando a las personas a esforzarse por hacer que el mundo (, especialmente la infraestructura en los campos de la computación y la biología ), sea lo más segura posible.
Estrategia 2: Botón de "pausa suave" global en hardware de escala industrial
Si estoy convencido de que necesitamos medidas más "fuertes" que las reglas de responsabilidad, elegiría esta estrategia. El objetivo es tener la capacidad de reducir la capacidad computacional global disponible en aproximadamente un 90%-99% durante un período de 1 a 2 años, para ganar más tiempo de preparación para la humanidad. El valor de 1 a 2 años no debe ser sobreestimado: un "modo de guerra" de un año puede equivaler fácilmente a cien años de trabajo convencional en circunstancias de complacencia. Se están explorando métodos para lograr una "pausa", incluidos algunos propuestas concretas, como exigir el registro de hardware y la verificación de ubicación.
Un enfoque más avanzado es utilizar ingeniosos métodos de criptografía: por ejemplo, el hardware de inteligencia artificial a escala industrial (, pero no a nivel de consumo ), puede estar equipado con un chip de hardware confiable, que solo se permitirá seguir funcionando si recibe una firma 3/3 de las principales instituciones internacionales (, incluyendo al menos una agencia no militar ), cada semana. Estas firmas serán independientes del dispositivo ( y, si es necesario, incluso podemos requerir la publicación de una prueba de conocimiento cero en la blockchain ), por lo que será todo o nada: no habrá forma práctica de autorizar un dispositivo para que continúe funcionando sin autorizar todos los demás dispositivos.
Esto parece "cumplir con los requisitos" en términos de maximizar beneficios y minimizar riesgos: