AI kavramı olan Web3 projeleri birinci ve ikinci piyasalarda yatırım çekici hale geliyor.
Web3'ün AI sektöründeki fırsatları, uzun kuyruktaki potansiyel arzı koordine etmek için dağıtık teşvikleri kullanmakta yatıyor------veri, depolama ve hesaplama boyunca; aynı zamanda, açık kaynaklı bir model ve AI Ajanı'nın merkeziyetsiz pazarını oluşturmak.
Web3 sektöründe AI'nın ana kullanım alanı zincir üzerindeki finans (kripto ödemeler, ticaret, veri analizi) ve geliştirmeyi desteklemektir.
AI+Web3'ün faydası, ikisinin birbirini tamamlamasında yatıyor: Web3, AI merkezileşmesine karşı koymayı umuyor, AI ise Web3'ün sınırlarını aşmasına yardımcı olmayı umuyor.
Giriş
Son iki yılda, AI'nin gelişimi sanki hızlandırma tuşuna basılmış gibi. Chatgpt'nin tetiklediği bu kelebek kanadı, yalnızca üretken yapay zekanın yeni dünyasını açmakla kalmadı, aynı zamanda öteki taraf olan Web3'te de büyük bir akıntı yarattı.
AI kavramının desteğiyle, yavaşlayan kripto pazarında finansmanın belirgin bir şekilde canlandığı görülüyor. Medya verilerine göre, sadece 2024'ün ilk yarısında 64 Web3+AI projesi finansman tamamladı ve yapay zeka tabanlı işletim sistemi Zyber365, A turunda 100 milyon dolarlık en yüksek finansman miktarını elde etti.
İkincil pazar daha da canlı hale geldi, bir kripto agregat web sitesinin verilerine göre, sadece bir yıl içinde AI sektörünün toplam piyasa değeri 48,5 milyar dolara ulaştı, 24 saatlik işlem hacmi ise 8,6 milyar dolara yaklaştı; önde gelen AI teknolojisi gelişmelerinin sağladığı faydalar açıkça görülüyor, bir şirketin Sora metin-videoya dönüştürme modeli yayımlandıktan sonra, AI sektöründeki ortalama fiyat %151 arttı; AI etkisi aynı zamanda kripto para çekim sektörlerinden biri olan Meme'ye de yansıdı: ilk AI Agent konseptine sahip MemeCoin------GOAT hızla popülerleşti ve 1,4 milyar dolarlık bir değerleme elde ederek AI Meme patlamasını başarıyla başlattı.
AI+Web3 ile ilgili araştırmalar ve konular da oldukça popüler, AI+Depin'den AI Memecoin'e, şu anki AI Agent ve AI DAO'ya kadar, FOMO duygusu yeni anlatı döngüsünün hızına yetişemiyor.
AI+Web3, sıcak paralarla, fırsatlarla ve geleceğe dair hayallerle dolu bu terim kombinasyonu, kaçınılmaz olarak bir kapitalin eşleştirdiği düzenlenmiş bir evlilik olarak görülüyor. Bu görkemli elbisenin altında, aslında spekülatörlerin sahnesi mi yoksa bir şafak patlamasının eşiği mi olduğunu ayırt etmekte zorlanıyoruz?
Bu soruyu yanıtlamak için her iki taraf için de kritik bir düşünce, karşı tarafın varlığının durumu daha iyi hale getirip getirmeyeceğidir. Karşı tarafın modelinden fayda sağlanabilir mi? Bu yazıda, öncülerimizin omuzlarında durarak bu durumu incelemeye çalışıyoruz: Web3, AI teknolojisi yığınlarının her aşamasında nasıl bir rol oynayabilir ve AI, Web3'e ne gibi yeni bir canlılık getirebilir?
Bölüm.1 AI yığınında Web3'ün ne gibi fırsatları var?
Bu konuyu açmadan önce, AI büyük modellerinin teknik yığınını anlamamız gerekiyor:
Daha basit bir dille tüm süreci ifade etmek gerekirse: "Büyük model", insan beynine benzer. İlk aşamada, bu beyin henüz dünyaya yeni gelmiş bir bebeğe aittir ve etrafındaki devasa dışsal bilgileri gözlemleyip almak suretiyle bu dünyayı anlamaya çalışır; bu, verilerin "toplanması" aşamasıdır. Bilgisayarlar, insanın görme, işitme gibi birçok duyusuna sahip olmadığından, eğitim öncesinde dış dünyadan gelen büyük ölçekli etiketlenmemiş bilgiler, bilgisayarın anlayabileceği ve kullanabileceği bilgi formatına "ön işleme" ile dönüştürülmelidir.
Veri girdikten sonra AI, "eğitim" yoluyla anlama ve tahmin etme yeteneğine sahip bir model oluşturur; bu, bir bebeğin dış dünyayı anlamaya ve öğrenmeye başladığı süreç olarak düşünülebilir. Modelin parametreleri, bebeğin öğrenme sürecinde sürekli olarak ayarlanan dil yetenekleri gibidir. Öğrenilen içerik alanlara ayrılmaya başladığında veya insanlarla iletişim kurarak geri bildirim alıp düzeltmeler yaptığında, büyük modelin "ince ayar" aşamasına geçilir.
Çocuklar büyüdükçe ve konuşmayı öğrendikçe, yeni diyaloglarda anlamı anlayabilir ve kendi hislerini ve düşüncelerini ifade edebilirler. Bu aşama, AI büyük modellerinin "akıl yürütmesi" ile benzerdir; model, yeni dil ve metin girdilerine tahmin ve analiz yapabilir. Bebekler dil yetenekleri aracılığıyla hislerini ifade eder, nesneleri tanımlar ve çeşitli problemleri çözer; bu da AI büyük modellerinin eğitim tamamlandıktan sonra akıl yürütme aşamasında çeşitli özel görevlerde, örneğin görüntü sınıflandırması, ses tanıma gibi, uygulanmasına benzer.
AI Ajanı, görevleri bağımsız bir şekilde yerine getirebilen ve karmaşık hedefler peşinde koşabilen, düşünme yeteneğine sahip olmanın yanı sıra hafıza, planlama yeteneği olan ve araçları kullanarak dünya ile etkileşimde bulunabilen büyük modelin bir sonraki biçimine daha yakın hale geliyor.
Şu anda, AI'nın çeşitli yığınlardaki zorluklarına yönelik olarak, Web3 şu anda AI model süreçlerinin her aşamasını kapsayan çok katmanlı, birbiriyle bağlantılı bir ekosistem oluşturmaktadır.
Birinci, Temel Katman: Hesap Gücü ve Verilerin Airbnb'si
Hashrate
Şu anda, AI'nın en yüksek maliyetlerinden biri, model eğitimi ve çıkarım modeli için gereken hesaplama gücü ve enerjidir.
Bir örnek, bir şirketin LLAMA3'ün belirli bir üretici tarafından üretilen 16000 H100GPU'ya ihtiyaç duymasıdır (bu, yapay zeka ve yüksek performanslı hesaplama yükleri için tasarlanmış birinci sınıf grafik işleme birimidir). Eğitimin tamamlanması 30 gün sürmektedir. H100'ün 80GB versiyonunun birim fiyatı 30,000 ile 40,000 dolar arasında değişmektedir, bu da 4-7 milyar dolarlık bir hesaplama donanımı yatırımı (GPU + ağ çipi) gerektirmektedir. Ayrıca, aylık eğitim 1.6 milyar kilovat saat tüketmektedir ve enerji harcaması her ay yaklaşık 20 milyon dolardır.
AI hesaplama gücünün serbest bırakılması, Web3'ün AI ile kesiştiği alanlardan biri olan DePin (merkeziyetsiz fiziksel altyapı ağı) ile ilgilidir. Şu anda, bir veri sitesi 1400'den fazla projeyi listelemiştir; bunlar arasında GPU hesaplama gücü paylaşımını temsil eden projeler io.net, Aethir, Akash, Render Network gibi projeleri içermektedir.
Ana mantığı şudur: Platform, izin gerektirmeyen merkeziyetsiz bir şekilde boşta olan GPU kaynaklarına sahip bireylerin veya kuruluşların hesaplama güçlerini katkıda bulunmasına izin verir. Bu, bir taksi çağırma veya kısa süreli kiralama platformuna benzer bir alıcı-satıcı çevrimiçi pazarı aracılığıyla, yeterince kullanılmayan GPU kaynaklarının kullanım oranını artırır ve nihai kullanıcılar da bu sayede daha düşük maliyetli etkili hesaplama kaynaklarına erişim sağlar; aynı zamanda, teminat mekanizması, kalite kontrol mekanizmasını ihlal eden veya ağı kesintiye uğratan durumlar ortaya çıktığında kaynak sağlayıcılarının uygun şekilde cezalandırılmasını da sağlar.
Özellikleri şunlardır:
Kullanılmayan GPU kaynaklarını toplamak: Tedarikçiler, üçüncü taraf bağımsız küçük ve orta ölçekli veri merkezleri, kripto madencilik çiftlikleri gibi işletmelerin fazla hesaplama gücü kaynaklarıdır; konsensüs mekanizması PoS olan madencilik donanımları, belirli bir depolama ağı ve belirli bir ana akım halka açık zincir madencilik makineleri gibi. Şu anda, exolab'ın belirli bir marka dizüstü bilgisayar, telefon, tablet gibi yerel cihazları kullanarak büyük model çıkarım hesaplama ağı kurmaya yönelik daha düşük giriş engeline sahip cihazları başlatma projeleri de bulunmaktadır.
AI hesaplama gücünün uzun kuyruk pazarıyla karşı karşıya:
a. "Teknoloji açısından bakıldığında" merkeziyetsiz hesaplama pazarı, çıkarım adımları için daha uygundur. Eğitim, daha çok büyük kümeler halinde GPU'ların sağladığı veri işleme kapasitesine dayanırken, çıkarım için GPU'nun hesaplama performansı göreceli olarak daha düşüktür; örneğin Aethir, düşük gecikmeli render çalışmaları ve AI çıkarım uygulamalarına odaklanmaktadır.
b. "Talep tarafında" küçük ve orta ölçekli hesap gücü talep edenler, kendi büyük modellerini ayrı olarak eğitmeyecekler, sadece birkaç başlıca büyük model etrafında optimizasyon ve ince ayar yapmayı seçeceklerdir ve bu senaryolar doğal olarak dağıtılmış boş hesap gücü kaynakları için uygundur.
Merkeziyetsiz mülkiyet: Blok zincirinin teknik anlamı, kaynak sahiplerinin her zaman kaynaklar üzerindeki kontrolünü koruması, talebe göre esnek bir şekilde ayarlamalar yapması ve aynı zamanda gelir elde etmesidir.
Veriler
Veri, AI'nin temelidir. Veri olmadan, hesaplama bir hiçtir ve veri ile model arasındaki ilişki, "Kötü veri, kötü sonuç" atasözü gibidir; verinin miktarı ve giriş kalitesi, nihai modelin çıktı kalitesini belirler. Mevcut AI modellerinin eğitimi açısından, veri modelin dil yeteneğini, anlama yeteneğini, hatta değerlerini ve insani davranışlarını belirler. Şu anda, AI'nın veri ihtiyacı sorunu esasen aşağıdaki dört alana odaklanmaktadır:
Veri açlığı: AI modellerinin eğitimi büyük veri girişi gerektirir. Kamuya açık verilere göre, bir şirketin GPT-4'ü eğitmek için kullandığı parametre sayısı trilyon seviyesine ulaştı.
Veri kalitesi: AI ile çeşitli sektörlerin birleşimi ile birlikte, verinin zamanında olması, veri çeşitliliği, dikey verilerin uzmanlığı ve sosyal medya gibi yeni veri kaynaklarının dahil edilmesi, kalite için yeni gereksinimler ortaya çıkarmaktadır.
Gizlilik ve uyum sorunları: Şu anda, farklı ülkeler ve şirketler kaliteli veri setlerinin öneminin farkına varıyor ve veri seti taramalarını sınırlamaya çalışıyorlar.
Veri işleme maliyetleri yüksek: Veri hacmi büyük, işleme süreci karmaşık. Açık kaynaklar, AI şirketlerinin %30'dan fazlasının Ar-Ge maliyetinin temel veri toplama ve işleme için harcandığını gösteriyor.
Şu anda, web3 çözümleri aşağıdaki dört alanda kendini göstermektedir:
Veri Toplama: Ücretsiz olarak sağlanan gerçek dünya verilerinin toplanması hızla tükeniyor, AI şirketlerinin veri için yaptığı harcamalar her yıl artıyor. Ancak bu harcama, verinin gerçek katkı sağlayanlarına geri dönmüyor; platformlar, verinin sağladığı değer yaratımından tamamen faydalanıyor. Örneğin, bir sosyal medya platformu, AI şirketleriyle imzaladığı veri lisans anlaşmaları sayesinde toplam 203 milyon dolar gelir elde etti.
Web3'ün vizyonu, gerçekten katkıda bulunan kullanıcıların veri yaratımından elde edilen değere katılmalarını sağlamak ve dağıtılmış ağlar ile teşvik mekanizmaları aracılığıyla, kullanıcıların daha özel ve daha değerli verilere düşük maliyetle erişim sağlamalarını hedeflemektedir.
Grass, merkeziyetsiz bir veri katmanı ve ağdır; kullanıcılar Grass düğümleri çalıştırarak, kullanılmayan bant genişliğini ve aktarım trafiğini sunarak internetin tamamındaki gerçek zamanlı verileri yakalayabilir ve token ödülleri alabilirler;
Vana, kullanıcıların özel verilerini (alışveriş kayıtları, tarayıcı alışkanlıkları, sosyal medya etkinlikleri vb.) belirli bir veri akış likidite havuzuna (DLP) yükleyebileceği ve bu verileri belirli üçüncü şahıslara kullanma izni verip vermeme konusunda esnek seçim yapabileceği benzersiz bir DLP konsepti getirmiştir;
PublicAI'de, kullanıcılar belirli bir sosyal medya platformunda #AI 或#Web3'ü kategori etiketi olarak kullanabilir ve veri toplamak için @PublicAI'yi etiketleyebilir.
Veri ön işleme: AI'nin veri işleme sürecinde, toplanan veriler genellikle gürültülü ve hatalar içerdiğinden, model eğitimi öncesinde temizlenip kullanılabilir bir formata dönüştürülmesi gerekir. Bu, standartlaştırma, filtreleme ve eksik değerlerin işlenmesi gibi tekrarlayan görevleri içerir. Bu aşama, AI endüstrisinin az sayıda insan faktöründen biridir ve veri etiketleme uzmanları adı verilen bir sektör ortaya çıkmıştır. Modelin veri kalitesi gereksinimlerinin artmasıyla birlikte, veri etiketleme uzmanlarının gereksinimleri de artmıştır ve bu görev, Web3'ün merkeziyetsiz teşvik mekanizması için doğal olarak uygundur.
Şu anda, Grass ve OpenLayer bu kritik aşama olan veri etiketlemeyi eklemeyi düşünüyor.
Synesis, veri kalitesini vurgulayarak "Train2earn" kavramını ortaya koydu. Kullanıcılar, etiketlenmiş veri, açıklama veya diğer şekillerde giriş sağlayarak ödül kazanabilirler.
Veri etiketleme projesi Sapien, etiketleme görevlerini oyunlaştırır ve kullanıcıların daha fazla puan kazanmak için puanlarını teminat göstermesine olanak tanır.
Veri gizliliği ve güvenliği: Açıklığa kavuşturulması gereken şey, veri gizliliği ve güvenliğinin iki farklı kavram olduğudur. Veri gizliliği, hassas verilerin işlenmesini içerirken, veri güvenliği, veri bilgilerini yetkisiz erişim, tahribat ve hırsızlığa karşı korur. Bu nedenle, Web3 gizlilik teknolojisinin avantajları ve potansiyel uygulama senaryoları iki alanda kendini göstermektedir: (1) Hassas verilerin eğitimi; (2) Veri işbirliği: Birden fazla veri sahibi, orijinal verilerini paylaşmadan AI eğitimine ortak olarak katılabilir.
Mevcut Web3'te yaygın olarak kullanılan gizlilik teknolojileri şunlardır:
Güvenilir İcra Ortamı(TEE), örneğin Super Protocol;
Tam homomorfik şifreleme (FHE), örneğin BasedAI, Fhenix.io veya Inco Network;
Sıfır Bilgi Teknolojisi (zk), Reclaim Protokolü gibi zkTLS teknolojisini kullanarak, HTTPS trafiği için sıfır bilgi kanıtları üretir ve kullanıcıların hassas bilgileri ifşa etmeden dış web sitelerinden etkinlik, itibar ve kimlik verilerini güvenli bir şekilde içe aktarmasına olanak tanır.
Ancak, bu alan hâlâ erken aşamalardadır, çoğu proje hâlâ keşif aşamasındadır; mevcut bir zorluk, hesaplama maliyetlerinin çok yüksek olmasıdır, bazı örnekler şunlardır:
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
8 Likes
Reward
8
5
Share
Comment
0/400
HashBandit
· 17h ago
madencilik günlerimde gerçekten merkeziyetsizlik vardı... bu yapay zeka hype saçmalığı değil smh
View OriginalReply0
CoconutWaterBoy
· 17h ago
Parası olan birlikte kazanır~
View OriginalReply0
CryptoTherapist
· 17h ago
brb bu ai-web3 birleşim kaygısını işlemeye yönelik derin nefes egzersizleri yapıyorum aslında
View OriginalReply0
SleepTrader
· 17h ago
Yine bir konsepti pazarlıyorlar, sadece para toplama aracı.
Web3'te AI yığın fırsatlarını keşfetmek: Bilgi İşlem Gücü paylaşımından veri gizliliğine
AI+Web3: Kuleler ve Meydanlar
TL;DR
AI kavramı olan Web3 projeleri birinci ve ikinci piyasalarda yatırım çekici hale geliyor.
Web3'ün AI sektöründeki fırsatları, uzun kuyruktaki potansiyel arzı koordine etmek için dağıtık teşvikleri kullanmakta yatıyor------veri, depolama ve hesaplama boyunca; aynı zamanda, açık kaynaklı bir model ve AI Ajanı'nın merkeziyetsiz pazarını oluşturmak.
Web3 sektöründe AI'nın ana kullanım alanı zincir üzerindeki finans (kripto ödemeler, ticaret, veri analizi) ve geliştirmeyi desteklemektir.
AI+Web3'ün faydası, ikisinin birbirini tamamlamasında yatıyor: Web3, AI merkezileşmesine karşı koymayı umuyor, AI ise Web3'ün sınırlarını aşmasına yardımcı olmayı umuyor.
Giriş
Son iki yılda, AI'nin gelişimi sanki hızlandırma tuşuna basılmış gibi. Chatgpt'nin tetiklediği bu kelebek kanadı, yalnızca üretken yapay zekanın yeni dünyasını açmakla kalmadı, aynı zamanda öteki taraf olan Web3'te de büyük bir akıntı yarattı.
AI kavramının desteğiyle, yavaşlayan kripto pazarında finansmanın belirgin bir şekilde canlandığı görülüyor. Medya verilerine göre, sadece 2024'ün ilk yarısında 64 Web3+AI projesi finansman tamamladı ve yapay zeka tabanlı işletim sistemi Zyber365, A turunda 100 milyon dolarlık en yüksek finansman miktarını elde etti.
İkincil pazar daha da canlı hale geldi, bir kripto agregat web sitesinin verilerine göre, sadece bir yıl içinde AI sektörünün toplam piyasa değeri 48,5 milyar dolara ulaştı, 24 saatlik işlem hacmi ise 8,6 milyar dolara yaklaştı; önde gelen AI teknolojisi gelişmelerinin sağladığı faydalar açıkça görülüyor, bir şirketin Sora metin-videoya dönüştürme modeli yayımlandıktan sonra, AI sektöründeki ortalama fiyat %151 arttı; AI etkisi aynı zamanda kripto para çekim sektörlerinden biri olan Meme'ye de yansıdı: ilk AI Agent konseptine sahip MemeCoin------GOAT hızla popülerleşti ve 1,4 milyar dolarlık bir değerleme elde ederek AI Meme patlamasını başarıyla başlattı.
AI+Web3 ile ilgili araştırmalar ve konular da oldukça popüler, AI+Depin'den AI Memecoin'e, şu anki AI Agent ve AI DAO'ya kadar, FOMO duygusu yeni anlatı döngüsünün hızına yetişemiyor.
AI+Web3, sıcak paralarla, fırsatlarla ve geleceğe dair hayallerle dolu bu terim kombinasyonu, kaçınılmaz olarak bir kapitalin eşleştirdiği düzenlenmiş bir evlilik olarak görülüyor. Bu görkemli elbisenin altında, aslında spekülatörlerin sahnesi mi yoksa bir şafak patlamasının eşiği mi olduğunu ayırt etmekte zorlanıyoruz?
Bu soruyu yanıtlamak için her iki taraf için de kritik bir düşünce, karşı tarafın varlığının durumu daha iyi hale getirip getirmeyeceğidir. Karşı tarafın modelinden fayda sağlanabilir mi? Bu yazıda, öncülerimizin omuzlarında durarak bu durumu incelemeye çalışıyoruz: Web3, AI teknolojisi yığınlarının her aşamasında nasıl bir rol oynayabilir ve AI, Web3'e ne gibi yeni bir canlılık getirebilir?
Bölüm.1 AI yığınında Web3'ün ne gibi fırsatları var?
Bu konuyu açmadan önce, AI büyük modellerinin teknik yığınını anlamamız gerekiyor:
Daha basit bir dille tüm süreci ifade etmek gerekirse: "Büyük model", insan beynine benzer. İlk aşamada, bu beyin henüz dünyaya yeni gelmiş bir bebeğe aittir ve etrafındaki devasa dışsal bilgileri gözlemleyip almak suretiyle bu dünyayı anlamaya çalışır; bu, verilerin "toplanması" aşamasıdır. Bilgisayarlar, insanın görme, işitme gibi birçok duyusuna sahip olmadığından, eğitim öncesinde dış dünyadan gelen büyük ölçekli etiketlenmemiş bilgiler, bilgisayarın anlayabileceği ve kullanabileceği bilgi formatına "ön işleme" ile dönüştürülmelidir.
Veri girdikten sonra AI, "eğitim" yoluyla anlama ve tahmin etme yeteneğine sahip bir model oluşturur; bu, bir bebeğin dış dünyayı anlamaya ve öğrenmeye başladığı süreç olarak düşünülebilir. Modelin parametreleri, bebeğin öğrenme sürecinde sürekli olarak ayarlanan dil yetenekleri gibidir. Öğrenilen içerik alanlara ayrılmaya başladığında veya insanlarla iletişim kurarak geri bildirim alıp düzeltmeler yaptığında, büyük modelin "ince ayar" aşamasına geçilir.
Çocuklar büyüdükçe ve konuşmayı öğrendikçe, yeni diyaloglarda anlamı anlayabilir ve kendi hislerini ve düşüncelerini ifade edebilirler. Bu aşama, AI büyük modellerinin "akıl yürütmesi" ile benzerdir; model, yeni dil ve metin girdilerine tahmin ve analiz yapabilir. Bebekler dil yetenekleri aracılığıyla hislerini ifade eder, nesneleri tanımlar ve çeşitli problemleri çözer; bu da AI büyük modellerinin eğitim tamamlandıktan sonra akıl yürütme aşamasında çeşitli özel görevlerde, örneğin görüntü sınıflandırması, ses tanıma gibi, uygulanmasına benzer.
AI Ajanı, görevleri bağımsız bir şekilde yerine getirebilen ve karmaşık hedefler peşinde koşabilen, düşünme yeteneğine sahip olmanın yanı sıra hafıza, planlama yeteneği olan ve araçları kullanarak dünya ile etkileşimde bulunabilen büyük modelin bir sonraki biçimine daha yakın hale geliyor.
Şu anda, AI'nın çeşitli yığınlardaki zorluklarına yönelik olarak, Web3 şu anda AI model süreçlerinin her aşamasını kapsayan çok katmanlı, birbiriyle bağlantılı bir ekosistem oluşturmaktadır.
Birinci, Temel Katman: Hesap Gücü ve Verilerin Airbnb'si
Hashrate
Şu anda, AI'nın en yüksek maliyetlerinden biri, model eğitimi ve çıkarım modeli için gereken hesaplama gücü ve enerjidir.
Bir örnek, bir şirketin LLAMA3'ün belirli bir üretici tarafından üretilen 16000 H100GPU'ya ihtiyaç duymasıdır (bu, yapay zeka ve yüksek performanslı hesaplama yükleri için tasarlanmış birinci sınıf grafik işleme birimidir). Eğitimin tamamlanması 30 gün sürmektedir. H100'ün 80GB versiyonunun birim fiyatı 30,000 ile 40,000 dolar arasında değişmektedir, bu da 4-7 milyar dolarlık bir hesaplama donanımı yatırımı (GPU + ağ çipi) gerektirmektedir. Ayrıca, aylık eğitim 1.6 milyar kilovat saat tüketmektedir ve enerji harcaması her ay yaklaşık 20 milyon dolardır.
AI hesaplama gücünün serbest bırakılması, Web3'ün AI ile kesiştiği alanlardan biri olan DePin (merkeziyetsiz fiziksel altyapı ağı) ile ilgilidir. Şu anda, bir veri sitesi 1400'den fazla projeyi listelemiştir; bunlar arasında GPU hesaplama gücü paylaşımını temsil eden projeler io.net, Aethir, Akash, Render Network gibi projeleri içermektedir.
Ana mantığı şudur: Platform, izin gerektirmeyen merkeziyetsiz bir şekilde boşta olan GPU kaynaklarına sahip bireylerin veya kuruluşların hesaplama güçlerini katkıda bulunmasına izin verir. Bu, bir taksi çağırma veya kısa süreli kiralama platformuna benzer bir alıcı-satıcı çevrimiçi pazarı aracılığıyla, yeterince kullanılmayan GPU kaynaklarının kullanım oranını artırır ve nihai kullanıcılar da bu sayede daha düşük maliyetli etkili hesaplama kaynaklarına erişim sağlar; aynı zamanda, teminat mekanizması, kalite kontrol mekanizmasını ihlal eden veya ağı kesintiye uğratan durumlar ortaya çıktığında kaynak sağlayıcılarının uygun şekilde cezalandırılmasını da sağlar.
Özellikleri şunlardır:
Kullanılmayan GPU kaynaklarını toplamak: Tedarikçiler, üçüncü taraf bağımsız küçük ve orta ölçekli veri merkezleri, kripto madencilik çiftlikleri gibi işletmelerin fazla hesaplama gücü kaynaklarıdır; konsensüs mekanizması PoS olan madencilik donanımları, belirli bir depolama ağı ve belirli bir ana akım halka açık zincir madencilik makineleri gibi. Şu anda, exolab'ın belirli bir marka dizüstü bilgisayar, telefon, tablet gibi yerel cihazları kullanarak büyük model çıkarım hesaplama ağı kurmaya yönelik daha düşük giriş engeline sahip cihazları başlatma projeleri de bulunmaktadır.
AI hesaplama gücünün uzun kuyruk pazarıyla karşı karşıya:
a. "Teknoloji açısından bakıldığında" merkeziyetsiz hesaplama pazarı, çıkarım adımları için daha uygundur. Eğitim, daha çok büyük kümeler halinde GPU'ların sağladığı veri işleme kapasitesine dayanırken, çıkarım için GPU'nun hesaplama performansı göreceli olarak daha düşüktür; örneğin Aethir, düşük gecikmeli render çalışmaları ve AI çıkarım uygulamalarına odaklanmaktadır.
b. "Talep tarafında" küçük ve orta ölçekli hesap gücü talep edenler, kendi büyük modellerini ayrı olarak eğitmeyecekler, sadece birkaç başlıca büyük model etrafında optimizasyon ve ince ayar yapmayı seçeceklerdir ve bu senaryolar doğal olarak dağıtılmış boş hesap gücü kaynakları için uygundur.
Veriler
Veri, AI'nin temelidir. Veri olmadan, hesaplama bir hiçtir ve veri ile model arasındaki ilişki, "Kötü veri, kötü sonuç" atasözü gibidir; verinin miktarı ve giriş kalitesi, nihai modelin çıktı kalitesini belirler. Mevcut AI modellerinin eğitimi açısından, veri modelin dil yeteneğini, anlama yeteneğini, hatta değerlerini ve insani davranışlarını belirler. Şu anda, AI'nın veri ihtiyacı sorunu esasen aşağıdaki dört alana odaklanmaktadır:
Veri açlığı: AI modellerinin eğitimi büyük veri girişi gerektirir. Kamuya açık verilere göre, bir şirketin GPT-4'ü eğitmek için kullandığı parametre sayısı trilyon seviyesine ulaştı.
Veri kalitesi: AI ile çeşitli sektörlerin birleşimi ile birlikte, verinin zamanında olması, veri çeşitliliği, dikey verilerin uzmanlığı ve sosyal medya gibi yeni veri kaynaklarının dahil edilmesi, kalite için yeni gereksinimler ortaya çıkarmaktadır.
Gizlilik ve uyum sorunları: Şu anda, farklı ülkeler ve şirketler kaliteli veri setlerinin öneminin farkına varıyor ve veri seti taramalarını sınırlamaya çalışıyorlar.
Veri işleme maliyetleri yüksek: Veri hacmi büyük, işleme süreci karmaşık. Açık kaynaklar, AI şirketlerinin %30'dan fazlasının Ar-Ge maliyetinin temel veri toplama ve işleme için harcandığını gösteriyor.
Şu anda, web3 çözümleri aşağıdaki dört alanda kendini göstermektedir:
Web3'ün vizyonu, gerçekten katkıda bulunan kullanıcıların veri yaratımından elde edilen değere katılmalarını sağlamak ve dağıtılmış ağlar ile teşvik mekanizmaları aracılığıyla, kullanıcıların daha özel ve daha değerli verilere düşük maliyetle erişim sağlamalarını hedeflemektedir.
Grass, merkeziyetsiz bir veri katmanı ve ağdır; kullanıcılar Grass düğümleri çalıştırarak, kullanılmayan bant genişliğini ve aktarım trafiğini sunarak internetin tamamındaki gerçek zamanlı verileri yakalayabilir ve token ödülleri alabilirler;
Vana, kullanıcıların özel verilerini (alışveriş kayıtları, tarayıcı alışkanlıkları, sosyal medya etkinlikleri vb.) belirli bir veri akış likidite havuzuna (DLP) yükleyebileceği ve bu verileri belirli üçüncü şahıslara kullanma izni verip vermeme konusunda esnek seçim yapabileceği benzersiz bir DLP konsepti getirmiştir;
PublicAI'de, kullanıcılar belirli bir sosyal medya platformunda #AI 或#Web3'ü kategori etiketi olarak kullanabilir ve veri toplamak için @PublicAI'yi etiketleyebilir.
Şu anda, Grass ve OpenLayer bu kritik aşama olan veri etiketlemeyi eklemeyi düşünüyor.
Synesis, veri kalitesini vurgulayarak "Train2earn" kavramını ortaya koydu. Kullanıcılar, etiketlenmiş veri, açıklama veya diğer şekillerde giriş sağlayarak ödül kazanabilirler.
Veri etiketleme projesi Sapien, etiketleme görevlerini oyunlaştırır ve kullanıcıların daha fazla puan kazanmak için puanlarını teminat göstermesine olanak tanır.
Mevcut Web3'te yaygın olarak kullanılan gizlilik teknolojileri şunlardır:
Güvenilir İcra Ortamı(TEE), örneğin Super Protocol;
Tam homomorfik şifreleme (FHE), örneğin BasedAI, Fhenix.io veya Inco Network;
Sıfır Bilgi Teknolojisi (zk), Reclaim Protokolü gibi zkTLS teknolojisini kullanarak, HTTPS trafiği için sıfır bilgi kanıtları üretir ve kullanıcıların hassas bilgileri ifşa etmeden dış web sitelerinden etkinlik, itibar ve kimlik verilerini güvenli bir şekilde içe aktarmasına olanak tanır.
Ancak, bu alan hâlâ erken aşamalardadır, çoğu proje hâlâ keşif aşamasındadır; mevcut bir zorluk, hesaplama maliyetlerinin çok yüksek olmasıdır, bazı örnekler şunlardır: