d/acc um ano: Progresso na aceleração da defesa e reflexões sobre a regulação da IA

d/acc: Uma retrospectiva de um ano

No ano passado, escrevi um artigo sobre otimismo tecnológico, onde expressei a minha paixão pela tecnologia e os enormes benefícios que ela pode trazer. Ao mesmo tempo, também manifestei uma atitude cautelosa em relação a certas questões, principalmente no que diz respeito à superinteligência AI e os riscos de destruição ou perda de poder irreversível que ela pode acarretar.

O ponto central do artigo é promover uma filosofia de aceleração defensiva que seja descentralizada, democrática e diferenciada. É necessário acelerar o desenvolvimento tecnológico, ao mesmo tempo em que se foca em tecnologias que aumentem a capacidade de defesa em vez da capacidade de destruição, e se comprometer a descentralizar o poder, evitando que uma minoria de elites represente todos na determinação do que é certo ou errado. O modo de defesa deve ser como a Suíça democrática, e não como o castelo de um senhor feudal da Idade Média.

Ao longo do ano, essas ideias tiveram um desenvolvimento significativo. Compartilhei esses pontos de vista na plataforma "80.000 horas", recebi a maioria das respostas positivas, mas também algumas críticas. Este trabalho resultou em resultados práticos: houve progresso no campo das vacinas de código aberto verificáveis; as pessoas passaram a reconhecer mais o valor do ar interior saudável; as "notas da comunidade" continuam a desempenhar um papel positivo; o mercado de previsões teve um ano de grandes avanços como ferramenta de informação; a prova de conhecimento zero foi aplicada em identificação de identidade governamental e nas redes sociais; ferramentas de imagem de código aberto foram aplicadas nas áreas de medicina e interfaces cérebro-máquina, entre outras.

No outono passado, realizamos o nosso primeiro evento d/acc importante: "Dia de Descoberta d/acc"(d/aDDy), que reuniu oradores de várias áreas do d/acc(, incluindo biologia, física, redes, defesa da informação e tecnologia neural). Pessoas que se dedicam a essas tecnologias há muito tempo compreendem melhor o trabalho umas das outras, enquanto os externos começam a perceber uma visão mais ampla: os valores que impulsionam o desenvolvimento do Ethereum e das criptomoedas podem se expandir para um mundo mais vasto.

Vitalik novo artigo: Como o aceleracionismo descentralizado une criptomoedas e IA?

O significado e a extensão de d/acc

A ideia central do d/acc é: uma aceleração defensiva descentralizada, democrática e diferenciada. Construir tecnologias que possam inclinar o equilíbrio entre ataque e defesa para a defesa, sem depender do aumento do poder dado a autoridades centrais durante o processo de implementação. Esses dois aspectos estão intimamente relacionados: qualquer estrutura política descentralizada, democrática ou livre tende a prosperar quando a defesa é fácil de implementar, mas enfrenta desafios quando a defesa é difícil.

Uma maneira de entender e implementar a importância da descentralização, defesa e aceleração é compará-la com as ideias geradas ao abdicar de qualquer um desses três aspectos:

  1. Aceleração da descentralização, mas ignorando a parte da "defesa diferenciada".
  2. A defesa diferenciada acelera, mas ignora "descentralização e democracia"
  3. Defesa descentralizada, mas exclui aceleração

Vitalik novo artigo: como o aceleracionismo descentralizado conecta criptomoedas e IA?

Através do d/acc, estamos comprometidos em alcançar os seguintes objetivos:

  • Manter princípios na tendência crescente de tribalização no mundo atual, construindo coisas específicas para tornar o mundo mais seguro e melhor.

  • Reconhecer que o avanço tecnológico exponencial significa que o mundo se tornará extremamente peculiar, e as "pegadas" da humanidade no universo inevitavelmente aumentarão. Nossa capacidade de proteger coisas frágeis de danos deve continuar a melhorar, e a única saída é avançar corajosamente.

  • Construir tecnologias que realmente protejam, em vez de se basear na suposição de que "pessoas boas ( ou boas IA ) controlam tudo". Atingimos esse objetivo construindo ferramentas que são naturalmente mais eficazes para construir e proteger do que para destruir.

Uma outra perspectiva para pensar o d/acc é retornar ao quadro do movimento dos Piratas da Europa no final dos anos 00 do século XXI: empoderamento. O nosso objetivo é construir um mundo que preserve a agência humana, alcançando a liberdade negativa, ou seja, evitar que outros (, seja cidadãos comuns, governos, ou superinteligências ), intervenham ativamente na nossa capacidade de moldar o nosso próprio destino, ao mesmo tempo em que garantimos a liberdade positiva, isto é, assegurar que temos o conhecimento e os recursos para exercer essa capacidade.

Vitalik novo artigo: como o aceleracionismo descentralizado conecta criptomoedas e IA?

Desafios: Segurança da IA, prazos apertados e dilemas regulatórios

No ano passado, o argumento mais persuasivo que recebi contra meu artigo veio da comunidade de segurança da IA. O argumento foi: "Claro, se tivermos meio século para desenvolver uma IA forte, podemos nos concentrar em construir todas essas coisas benéficas. Mas, na realidade, parece que podemos ter apenas três anos para desenvolver uma IA geral e mais três anos para alcançar uma superinteligência. Portanto, se não quisermos que o mundo caia em destruição ou, de outra forma, em uma situação irreversível, não podemos simplesmente acelerar o desenvolvimento de tecnologias benéficas; também precisamos desacelerar o desenvolvimento de tecnologias prejudiciais, o que significa que serão necessárias medidas regulatórias rigorosas que podem irritar os poderosos."

Razões para ter uma atitude cautelosa em relação à nova regulamentação:

No ano passado, a principal proposta de regulamentação de IA foi a lei SB-1047 da Califórnia. Ela exige que os desenvolvedores dos modelos mais poderosos, cujo custo de treinamento exceda 1 milhão de dólares ou o custo de ajuste fino exceda 10 milhões de dólares, adotem uma série de medidas de teste de segurança antes do lançamento. Se os desenvolvedores de modelos de IA não forem suficientemente cautelosos, serão responsabilizados. Muitos críticos acreditam que a lei "representa uma ameaça ao código aberto"; eu discordo, pois o limiar de custo significa que afeta apenas os modelos mais poderosos. No entanto, olhando para o passado, acredito que a lei apresenta um problema mais grave: como a maioria das medidas regulatórias, ela se adapta excessivamente à situação atual. A preocupação com os custos de treinamento mostrou-se vulnerável diante de novas tecnologias: o custo de treinamento do recente modelo DeepSeek v3 foi de apenas 6 milhões de dólares, e em novos modelos como o o1, os custos geralmente são transferidos mais para a fase de inferência.

Vitalik novo artigo: como o aceleracionismo descentralizado liga criptomoedas e IA?

Os agentes mais prováveis de serem responsáveis pelo cenário de destruição da superinteligência AI:

Na verdade, os atores mais propensos a serem responsáveis por cenários de destruição da superinteligência artificial são os exércitos. Como vimos nas últimas cinco décadas em biosssegurança ( e em períodos anteriores ), os exércitos estão dispostos a tomar algumas ações terríveis e são propensos a cometer erros. Hoje, a aplicação de IA no setor militar está se desenvolvendo rapidamente (, como no caso da Ucrânia e da região de Gaza ). Além disso, qualquer medida de regulação de segurança aprovada pelo governo, por padrão, isentará as forças armadas do país e as empresas que trabalham em estreita colaboração com os militares.

Estratégia de resposta:

Apesar disso, esses argumentos não são uma razão para ficarmos de braços cruzados. Pelo contrário, podemos usá-los como um guia para tentarmos estabelecer regras que causem o mínimo de preocupação.

Estratégia 1: Responsabilidade

Se o comportamento de alguém causar danos que possam ser legalmente responsabilizados, essa pessoa pode ser processada. Isso não resolve a questão dos riscos provenientes de militares e outros agentes que "estão acima da lei", mas é um método muito genérico que evita o excesso de ajuste, razão pela qual economistas tendenciosos para o liberalismo geralmente apoiam essa prática.

Os principais objetivos de responsabilidade considerados até agora são os seguintes:

  • Usuário: a pessoa que utiliza a IA.
  • Implementador: intermediário que fornece serviços de IA aos usuários.
  • Desenvolvedor: A pessoa que constrói IA.

Colocar a responsabilidade nos usuários parece ser o que mais se alinha com o mecanismo de incentivos. Embora a relação entre a forma como o modelo é desenvolvido e a forma como é usado final muitas vezes não seja clara, os usuários decidem a forma específica de uso da IA. A responsabilização dos usuários cria uma pressão poderosa, levando as pessoas a usarem a IA da maneira que considero correta: focando na construção de pacotes mecânicos para o pensamento humano, em vez de criar novas formas de vida inteligente auto-sustentáveis. A primeira opção responderá regularmente às intenções dos usuários, portanto, a menos que o usuário deseje, não levará a ações catastróficas. A segunda opção apresenta o maior risco, que é a possibilidade de perder o controle e desencadear o clássico cenário de "IA fora de controle". Outro benefício de colocar a responsabilidade o mais próximo possível do ponto de uso final é que isso minimiza o risco de que a responsabilidade leve as pessoas a tomar ações prejudiciais em outros aspectos, como fechamento de código, conheça seu cliente ( KYC ) e monitoramento, conluio entre estados/empresas para restringir secretamente usuários, como bancos que se recusam a oferecer serviços a certos clientes, excluindo vastas áreas do mundo (.

Vitalik novo artigo: como o aceleracionismo descentralizado liga criptomoedas e IA?

Há uma visão clássica que se opõe a atribuir a responsabilidade apenas aos usuários: os usuários podem ser indivíduos comuns, sem muito dinheiro, e podem até ser anônimos, o que significa que ninguém pode realmente arcar com os danos catastróficos. Essa visão pode ter sido exagerada: mesmo que alguns usuários sejam pequenos demais para assumir responsabilidades, os clientes comuns dos desenvolvedores de IA não são, portanto, os desenvolvedores de IA ainda serão incentivados a construir produtos que façam os usuários acreditarem que não enfrentarão altos riscos de responsabilidade. Em outras palavras, essa ainda é uma visão válida que precisa ser abordada. Você precisa incentivar alguém com recursos no pipeline a tomar as devidas precauções, e os implementadores e desenvolvedores são alvos fáceis, pois ainda têm uma grande influência sobre a segurança do modelo.

A responsabilidade do implementador parece ser razoável. Uma preocupação comum é que isso não funciona com modelos de código aberto, mas isso parece ser gerenciável, especialmente porque os modelos mais poderosos provavelmente serão de código fechado ). Se os resultados forem de código aberto, então embora a responsabilidade do implementador possa não ser muito útil, também não causará muito dano (. A responsabilidade do desenvolvedor também apresenta a mesma preocupação ). Embora para modelos de código aberto haja uma certa barreira para ajustar o modelo para que ele faça algumas coisas que originalmente não eram permitidas (, os mesmos argumentos de refutação também se aplicam. Como princípio geral, impor uma "taxa" ao controle é, em essência, dizer "você pode construir algo que não pode controlar, ou pode construir algo que pode controlar, mas se você construir algo que pode controlar, então 20% do controle deve ser usado para os nossos fins", isso parece ser a posição razoável que o sistema jurídico deveria ter.

![Vitalik nova publicação: como o aceleracionismo descentralizado relaciona criptomoedas e IA?])https://img-cdn.gateio.im/webp-social/moments-464eec9622a1aadced54930095728902.webp(

Uma ideia que parece ainda não ter sido totalmente explorada é atribuir responsabilidade a outros atores no pipeline, que são mais propensos a ter recursos adequados. Uma ideia que se alinha muito com o conceito de d/acc é responsabilizar os proprietários ou operadores de qualquer dispositivo que seja hackeado durante a execução de certas ações catastróficas prejudiciais, como quando a IA assume o controle do ). Isso criaria um incentivo muito amplo, levando as pessoas a se esforçarem para tornar o mundo (, especialmente a infraestrutura nas áreas de computação e biologia, ) o mais seguro possível.

Estratégia 2: Botão de "pausa suave" global em hardware de escala industrial

Se eu tiver certeza de que precisamos de medidas mais "fortes" do que as regras de responsabilidade, escolheria esta estratégia. O objetivo é ter a capacidade de reduzir a capacidade computacional global disponível em cerca de 90%-99% durante um período crítico, por um período contínuo de 1-2 anos, para dar à humanidade mais tempo para se preparar. O valor de 1-2 anos não deve ser subestimado: um ano de "modo de guerra" em condições de complacência pode facilmente equivaler a cem anos de trabalho convencional. Os métodos para implementar uma "pausa" já estão sendo explorados, incluindo algumas propostas concretas, como exigir registro de hardware e verificação de localização.

Uma abordagem mais avançada é usar meios sofisticados de criptografia: por exemplo, hardware de IA em escala industrial (, mas não em nível de consumo ), pode ser equipado com um chip de hardware confiável, que só é autorizado a continuar funcionando após obter assinaturas 3/3 de principais instituições internacionais (, incluindo pelo menos uma instituição não militar ), a cada semana. Essas assinaturas serão independentes do dispositivo ( e, se necessário, poderíamos até exigir a publicação de provas de conhecimento zero ) na blockchain, portanto, será tudo ou nada: não haverá um método real para autorizar um dispositivo a continuar funcionando sem autorizar todos os outros dispositivos.

Isso parece "atender aos requisitos" em termos de maximização de benefícios e minimização de riscos:

  • Isto é uma
Ver original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Recompensa
  • 3
  • Compartilhar
Comentário
0/400
Ser_APY_2000vip
· 8h atrás
Olhar aquático, pura embalagem elevada
Ver originalResponder0
Lonely_Validatorvip
· 8h atrás
A defesa e o contra-ataque não são bons?
Ver originalResponder0
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)