Integrasi AI dan Teknologi Blockchain: Dari Infrastruktur ke Aplikasi
Kecerdasan buatan ( AI ) industri telah berkembang pesat dalam beberapa tahun terakhir, dianggap sebagai pendorong kunci dari revolusi industri baru. Kemunculan model bahasa besar secara signifikan meningkatkan efisiensi kerja di berbagai sektor, Boston Consulting memperkirakan GPT memberikan peningkatan sekitar 20% pada efisiensi kerja di seluruh AS. Pada saat yang sama, kemampuan generalisasi dari model besar dianggap sebagai paradigma desain perangkat lunak yang baru, dibandingkan dengan kode presisi tradisional, desain perangkat lunak kini lebih banyak menggunakan kerangka model besar yang digeneralisasi untuk mendukung input dan output modal yang lebih luas. Teknologi pembelajaran mendalam membawa gelombang kemakmuran baru bagi industri AI, dan gelombang ini juga meluas ke industri cryptocurrency.
Artikel ini akan membahas secara mendetail tentang perjalanan perkembangan industri AI, klasifikasi teknologinya, serta dampak pembelajaran mendalam terhadap industri. Kami akan menganalisis secara mendalam rantai industri pembelajaran mendalam dari hulu ke hilir, termasuk GPU, komputasi awan, sumber data, perangkat tepi, dan lain-lain, serta merapikan kondisi dan tren perkembangannya. Selanjutnya, kami akan secara esensial membahas hubungan antara cryptocurrency dan industri AI, serta merapikan pola rantai industri AI yang terkait dengan cryptocurrency.
Perkembangan Industri AI
Industri AI dimulai pada tahun 1950-an. Untuk mewujudkan visi kecerdasan buatan, akademisi dan industri telah mengembangkan berbagai aliran dalam konteks zaman yang berbeda. Teknologi kecerdasan buatan modern terutama menggunakan metode "pembelajaran mesin", di mana inti konsepnya adalah memungkinkan mesin untuk didorong oleh data, terus melakukan iterasi dalam tugas untuk meningkatkan kinerja sistem. Langkah-langkah utama termasuk memasukkan data ke dalam algoritma, melatih model, menguji penerapan, dan akhirnya mencapai prediksi otomatis.
Saat ini, pembelajaran mesin terutama memiliki tiga aliran utama: koneksionisme, simbolisme, dan behaviorisme, yang masing-masing meniru sistem saraf manusia, pemikiran, dan perilaku. Di antara mereka, koneksionisme yang diwakili oleh jaringan saraf mendominasi, juga dikenal sebagai pembelajaran mendalam. Arsitektur jaringan saraf terdiri dari lapisan input, lapisan output, dan beberapa lapisan tersembunyi. Dengan meningkatnya jumlah lapisan dan neuron, dapat menyesuaikan tugas umum yang lebih kompleks. Dengan terus-menerus memasukkan data untuk menyesuaikan parameter, akhirnya mencapai kondisi optimal, inilah juga yang menjadi asal mula "kedalaman".
Teknologi pembelajaran mendalam telah mengalami beberapa evolusi, dari jaringan saraf yang paling awal, hingga jaringan saraf umpan maju, RNN, CNN, GAN, dan akhirnya berkembang menjadi model besar modern seperti teknologi Transformer yang digunakan oleh GPT. Transformer dengan menambahkan konverter, dapat mengkodekan data multimodal ( seperti audio, video, gambar, dll ) menjadi representasi numerik yang sesuai, sehingga dapat melakukan pemodelan terhadap semua jenis data.
Perkembangan AI telah mengalami tiga gelombang teknologi:
Tahun 1960-an: Gelombang pertama dipicu oleh teknologi simbolisme, yang menyelesaikan masalah pemrosesan bahasa alami umum dan dialog manusia-komputer. Pada saat yang sama, sistem pakar lahir.
1997: IBM Deep Blue mengalahkan juara catur dunia, menandakan puncak kedua teknologi AI.
Sejak 2006: Tiga raksasa pembelajaran mendalam mengajukan konsep pembelajaran mendalam, algoritma secara bertahap berkembang, membentuk gelombang teknologi ketiga, juga merupakan puncak zaman konektivisme.
Dalam beberapa tahun terakhir, telah muncul beberapa peristiwa ikonik di bidang AI, termasuk:
2014: Goodfellow mengusulkan GAN( Jaringan Generatif Adversarial)
2015: OpenAI didirikan
2016: AlphaGo mengalahkan Lee Sedol
2017: Google menerbitkan makalah algoritma Transformer
2018: OpenAI merilis GPT
2020: OpenAI merilis GPT-3
Tahun 2023: ChatGPT berbasis GPT-4 diluncurkan dan dengan cepat menjadi populer
Rantai industri pembelajaran mendalam
Model bahasa besar saat ini terutama menggunakan metode pembelajaran mendalam berbasis jaringan saraf. Model besar yang dipimpin oleh GPT telah memicu gelombang baru dalam AI, dengan permintaan pasar terhadap data dan kekuatan komputasi yang meningkat pesat. Kami akan fokus membahas komposisi rantai industri algoritma pembelajaran mendalam, serta kondisi hulu dan hilir, hubungan penawaran dan permintaan, serta tren perkembangan di masa depan.
Model bahasa besar berbasis teknologi Transformer (LLMs) dilatih terutama dalam tiga langkah:
Pra-pelatihan: Memasukkan pasangan data yang besar untuk mencari parameter terbaik dari neuron. Tahap ini paling menghabiskan daya komputasi, dan memerlukan iterasi berulang untuk mencoba berbagai parameter.
Fine-tuning: Melatih model dengan sedikit tetapi data berkualitas tinggi untuk meningkatkan kualitas output model.
Pembelajaran Penguatan: Membangun model penghargaan untuk mengurutkan hasil keluaran, digunakan untuk iterasi otomatis parameter model besar. Terkadang juga diperlukan keterlibatan manusia dalam penilaian.
Kinerja model ditentukan terutama oleh jumlah parameter, jumlah dan kualitas data, serta tiga faktor kekuatan komputasi. Semakin banyak parameter, semakin tinggi batas kemampuan generalisasi model. Menurut aturan empiris, pelatihan sekali model besar memerlukan sekitar 6np Flops dari jumlah perhitungan (n adalah jumlah Token, p adalah jumlah parameter ).
Pelatihan AI awalnya menggunakan CPU untuk menyediakan daya komputasi, kemudian secara bertahap beralih ke GPU, seperti chip NVIDIA A100 dan H100. GPU melakukan operasi floating point melalui modul Tensor Core, data Flops pada akurasi FP16/FP32 adalah indikator penting untuk mengukur kinerja chip.
Sebagai contoh, GPT-3 memiliki 175 miliar parameter dan 180 miliar Token data pelatihan. Satu pra-pelatihan memerlukan sekitar 3,15*10^22 Flops, bahkan dengan menggunakan chip GPU yang paling canggih sekalipun, diperlukan waktu berhari-hari. Seiring dengan bertambahnya skala model, kebutuhan akan daya komputasi meningkat secara eksponensial.
Selama proses pelatihan model, penyimpanan data juga menghadapi tantangan. Karena memori GPU terbatas, perlu sering mentransfer data antara hard disk dan memori, bandwidth chip menjadi faktor kunci. Saat pelatihan paralel multi-GPU, laju transfer data antar chip juga sangat penting. Oleh karena itu, kemampuan komputasi chip bukanlah satu-satunya kendala, bandwidth memori sering kali lebih penting.
Rantai industri pembelajaran mendalam terutama mencakup beberapa tahap berikut:
Penyedia GPU perangkat keras: NVIDIA memiliki posisi monopoli di pasar chip AI kelas atas. Perusahaan seperti Google, Intel, dan lainnya juga sedang mengembangkan chip AI mereka sendiri.
Penyedia layanan cloud: terbagi menjadi tiga kategori: penyedia cloud tradisional ( seperti AWS, Google Cloud ), penyedia layanan cloud AI vertikal ( seperti CoreWeave ), dan penyedia inferensi sebagai layanan ( seperti Together.ai ).
Penyedia sumber data pelatihan: Menyediakan data yang besar, berkualitas tinggi, dan spesifik untuk model besar dan model bidang vertikal.
Penyedia basis data: terutama adalah basis data vektor, digunakan untuk penyimpanan dan pemrosesan data tidak terstruktur secara efisien.
Perangkat tepi: termasuk pasokan energi dan sistem pendingin, untuk mendukung operasi kluster komputasi berskala besar.
Aplikasi: Berbagai aplikasi AI yang dikembangkan berdasarkan model besar, seperti sistem percakapan, alat kreasi, dll.
Hubungan antara Cryptocurrency dan AI
Inti dari teknologi Blockchain adalah desentralisasi dan penghilangan kepercayaan. Bitcoin menciptakan sistem transfer nilai yang tidak memerlukan kepercayaan, sementara Ethereum lebih lanjut mewujudkan platform kontrak pintar yang terdesentralisasi dan tanpa kepercayaan. Secara esensial, jaringan blockchain adalah jaringan nilai, di mana setiap transaksi adalah konversi nilai berdasarkan token dasar.
Dalam internet tradisional, nilai perusahaan terutama tercermin melalui arus kas dan rasio harga terhadap laba. Namun, dalam ekosistem blockchain, token asli ( seperti ETH) membawa nilai multidimensional dari jaringan, tidak hanya dapat memperoleh hasil staking, tetapi juga dapat berfungsi sebagai media pertukaran nilai, alat penyimpanan, dan barang konsumsi untuk aktivitas jaringan. Ekonomi token mendefinisikan nilai relatif dari penyelesaian ekosistem, meskipun sulit untuk menentukan harga setiap dimensi secara terpisah, harga token secara komprehensif mencerminkan nilai multidimensional.
Daya tarik token terletak pada kemampuannya untuk memberikan nilai pada fungsi atau gagasan apa pun. Ekonomi token mendefinisikan kembali dan menemukan cara nilai yang sangat penting untuk semua industri, termasuk AI. Dalam industri AI, penerbitan token dapat membentuk kembali nilai di setiap tahap rantai industri, mendorong lebih banyak peserta untuk mendalami jalur yang lebih tersegmentasi. Token tidak hanya membawa arus kas, tetapi juga dapat meningkatkan nilai infrastruktur melalui efek sinergi, membentuk paradigma "protokol gemuk aplikasi ramping".
Karakteristik blockchain yang tidak dapat diubah dan tidak memerlukan kepercayaan juga membawa makna praktis bagi industri AI. Ini dapat mewujudkan beberapa aplikasi yang memerlukan kepercayaan, seperti memastikan bahwa model tidak mengungkapkan privasi saat menggunakan data pengguna. Ketika pasokan GPU tidak mencukupi, kekuatan komputasi dapat didistribusikan melalui jaringan blockchain; ketika GPU diperbarui, perangkat lama yang tidak terpakai juga dapat terus memberikan nilai. Semua ini adalah keuntungan unik dari jaringan nilai global.
Gambaran Umum Proyek Rantai Industri AI di Industri Cryptocurrency
Sisi pasokan GPU:
Proyek utama termasuk Render, Golem, dan lainnya. Render sebagai proyek infrastruktur terdesentralisasi yang lebih matang, terutama ditujukan untuk tugas-tugas non-model besar seperti rendering video. Seiring dengan pertumbuhan permintaan AI dan iterasi GPU, permintaan akan kekuatan komputasi GPU bersama mungkin akan meningkat, memberikan kesempatan untuk menemukan nilai dari GPU yang tidak terpakai.
Bandwidth perangkat keras:
Proyek khas seperti Meson Network bertujuan untuk membangun jaringan berbagi bandwidth global. Namun, berbagi bandwidth mungkin merupakan kebutuhan yang salah, karena untuk kluster komputasi berkinerja tinggi, latensi penyimpanan data lokal jauh lebih rendah dibandingkan dengan penyimpanan terdistribusi.
Data:
Proyek seperti EpiK Protocol, Synesis One, dan Masa menyediakan layanan data pelatihan AI. Di antara mereka, Masa berbasis pada teknologi bukti nol pengetahuan, yang mendukung pengumpulan data pribadi. Keunggulan dari proyek semacam ini adalah dapat mewujudkan pengumpulan data yang luas dan mendorong pengguna untuk berkontribusi data melalui insentif token.
ZKML( pembelajaran mesin tanpa pengetahuan):
Menggunakan teknologi bukti nol pengetahuan untuk menerapkan komputasi privasi dan pelatihan. Proyek utama termasuk Modulus Labs, Giza, dll. Beberapa proyek ZK umum seperti Axiom, Risc Zero juga patut diperhatikan.
Aplikasi AI:
Utamanya adalah menggabungkan kemampuan AI dengan aplikasi blockchain tradisional, seperti AI Agent. Fetch.AI adalah proyek perwakilan, yang membantu pengguna membuat keputusan kompleks di blockchain melalui agen pintar.
AI Blockchain:
Seperti Tensor, Allora, Hypertensor, dan lainnya, jaringan adaptif yang dirancang khusus untuk model atau agen AI. Proyek-proyek ini biasanya menggunakan mekanisme yang mirip dengan pembelajaran penguatan, melalui evaluator di blockchain untuk memperbaiki parameter model.
Ringkasan
Meskipun perkembangan AI saat ini terutama berfokus pada teknologi pembelajaran mendalam, masih ada jalur teknologi AI lain yang patut diperhatikan. Pembelajaran mendalam mungkin tidak dapat mencapai kecerdasan buatan umum, tetapi telah diterapkan secara luas di bidang seperti sistem rekomendasi dan memiliki nilai praktis.
Teknologi blockchain dan ekonomi token membawa definisi nilai dan mekanisme penemuan baru bagi industri AI. Mereka dapat membentuk kembali nilai di setiap tahap rantai industri AI, mendorong lebih banyak peserta, dan mewujudkan alokasi sumber daya yang efisien melalui jaringan nilai global.
Namun, jaringan GPU terdesentralisasi masih memiliki kelemahan dalam hal bandwidth dan alat pengembang, saat ini lebih cocok untuk pelatihan model kecil yang tidak mendesak. Untuk perusahaan besar dan misi kritis, platform layanan cloud tradisional masih lebih unggul.
Secara keseluruhan, penggabungan AI dan Blockchain memiliki utilitas praktis dan potensi jangka panjang. Ekonomi token dapat membentuk kembali dan menemukan nilai yang lebih luas, sementara buku besar terdesentralisasi dapat menyelesaikan masalah kepercayaan, memfasilitasi aliran nilai dan penemuan surplus nilai secara global. Seiring dengan perkembangan teknologi dan penyempurnaan ekosistem, penggabungan AI dan Blockchain diharapkan dapat membawa lebih banyak inovasi dan peluang.
Lihat Asli
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
12 Suka
Hadiah
12
4
Bagikan
Komentar
0/400
ContractSurrender
· 12jam yang lalu
dunia kripto smart contract satu buah 🔪
Lihat AsliBalas0
UncleWhale
· 13jam yang lalu
Boston benar-benar berani membual, hanya dengan membuat tabel sudah tahu 20%.
AI dan Blockchain: Dari Eksplorasi Teknologi hingga Perombakan Rantai Industri
Integrasi AI dan Teknologi Blockchain: Dari Infrastruktur ke Aplikasi
Kecerdasan buatan ( AI ) industri telah berkembang pesat dalam beberapa tahun terakhir, dianggap sebagai pendorong kunci dari revolusi industri baru. Kemunculan model bahasa besar secara signifikan meningkatkan efisiensi kerja di berbagai sektor, Boston Consulting memperkirakan GPT memberikan peningkatan sekitar 20% pada efisiensi kerja di seluruh AS. Pada saat yang sama, kemampuan generalisasi dari model besar dianggap sebagai paradigma desain perangkat lunak yang baru, dibandingkan dengan kode presisi tradisional, desain perangkat lunak kini lebih banyak menggunakan kerangka model besar yang digeneralisasi untuk mendukung input dan output modal yang lebih luas. Teknologi pembelajaran mendalam membawa gelombang kemakmuran baru bagi industri AI, dan gelombang ini juga meluas ke industri cryptocurrency.
Artikel ini akan membahas secara mendetail tentang perjalanan perkembangan industri AI, klasifikasi teknologinya, serta dampak pembelajaran mendalam terhadap industri. Kami akan menganalisis secara mendalam rantai industri pembelajaran mendalam dari hulu ke hilir, termasuk GPU, komputasi awan, sumber data, perangkat tepi, dan lain-lain, serta merapikan kondisi dan tren perkembangannya. Selanjutnya, kami akan secara esensial membahas hubungan antara cryptocurrency dan industri AI, serta merapikan pola rantai industri AI yang terkait dengan cryptocurrency.
Perkembangan Industri AI
Industri AI dimulai pada tahun 1950-an. Untuk mewujudkan visi kecerdasan buatan, akademisi dan industri telah mengembangkan berbagai aliran dalam konteks zaman yang berbeda. Teknologi kecerdasan buatan modern terutama menggunakan metode "pembelajaran mesin", di mana inti konsepnya adalah memungkinkan mesin untuk didorong oleh data, terus melakukan iterasi dalam tugas untuk meningkatkan kinerja sistem. Langkah-langkah utama termasuk memasukkan data ke dalam algoritma, melatih model, menguji penerapan, dan akhirnya mencapai prediksi otomatis.
Saat ini, pembelajaran mesin terutama memiliki tiga aliran utama: koneksionisme, simbolisme, dan behaviorisme, yang masing-masing meniru sistem saraf manusia, pemikiran, dan perilaku. Di antara mereka, koneksionisme yang diwakili oleh jaringan saraf mendominasi, juga dikenal sebagai pembelajaran mendalam. Arsitektur jaringan saraf terdiri dari lapisan input, lapisan output, dan beberapa lapisan tersembunyi. Dengan meningkatnya jumlah lapisan dan neuron, dapat menyesuaikan tugas umum yang lebih kompleks. Dengan terus-menerus memasukkan data untuk menyesuaikan parameter, akhirnya mencapai kondisi optimal, inilah juga yang menjadi asal mula "kedalaman".
Teknologi pembelajaran mendalam telah mengalami beberapa evolusi, dari jaringan saraf yang paling awal, hingga jaringan saraf umpan maju, RNN, CNN, GAN, dan akhirnya berkembang menjadi model besar modern seperti teknologi Transformer yang digunakan oleh GPT. Transformer dengan menambahkan konverter, dapat mengkodekan data multimodal ( seperti audio, video, gambar, dll ) menjadi representasi numerik yang sesuai, sehingga dapat melakukan pemodelan terhadap semua jenis data.
Perkembangan AI telah mengalami tiga gelombang teknologi:
Tahun 1960-an: Gelombang pertama dipicu oleh teknologi simbolisme, yang menyelesaikan masalah pemrosesan bahasa alami umum dan dialog manusia-komputer. Pada saat yang sama, sistem pakar lahir.
1997: IBM Deep Blue mengalahkan juara catur dunia, menandakan puncak kedua teknologi AI.
Sejak 2006: Tiga raksasa pembelajaran mendalam mengajukan konsep pembelajaran mendalam, algoritma secara bertahap berkembang, membentuk gelombang teknologi ketiga, juga merupakan puncak zaman konektivisme.
Dalam beberapa tahun terakhir, telah muncul beberapa peristiwa ikonik di bidang AI, termasuk:
Rantai industri pembelajaran mendalam
Model bahasa besar saat ini terutama menggunakan metode pembelajaran mendalam berbasis jaringan saraf. Model besar yang dipimpin oleh GPT telah memicu gelombang baru dalam AI, dengan permintaan pasar terhadap data dan kekuatan komputasi yang meningkat pesat. Kami akan fokus membahas komposisi rantai industri algoritma pembelajaran mendalam, serta kondisi hulu dan hilir, hubungan penawaran dan permintaan, serta tren perkembangan di masa depan.
Model bahasa besar berbasis teknologi Transformer (LLMs) dilatih terutama dalam tiga langkah:
Pra-pelatihan: Memasukkan pasangan data yang besar untuk mencari parameter terbaik dari neuron. Tahap ini paling menghabiskan daya komputasi, dan memerlukan iterasi berulang untuk mencoba berbagai parameter.
Fine-tuning: Melatih model dengan sedikit tetapi data berkualitas tinggi untuk meningkatkan kualitas output model.
Pembelajaran Penguatan: Membangun model penghargaan untuk mengurutkan hasil keluaran, digunakan untuk iterasi otomatis parameter model besar. Terkadang juga diperlukan keterlibatan manusia dalam penilaian.
Kinerja model ditentukan terutama oleh jumlah parameter, jumlah dan kualitas data, serta tiga faktor kekuatan komputasi. Semakin banyak parameter, semakin tinggi batas kemampuan generalisasi model. Menurut aturan empiris, pelatihan sekali model besar memerlukan sekitar 6np Flops dari jumlah perhitungan (n adalah jumlah Token, p adalah jumlah parameter ).
Pelatihan AI awalnya menggunakan CPU untuk menyediakan daya komputasi, kemudian secara bertahap beralih ke GPU, seperti chip NVIDIA A100 dan H100. GPU melakukan operasi floating point melalui modul Tensor Core, data Flops pada akurasi FP16/FP32 adalah indikator penting untuk mengukur kinerja chip.
Sebagai contoh, GPT-3 memiliki 175 miliar parameter dan 180 miliar Token data pelatihan. Satu pra-pelatihan memerlukan sekitar 3,15*10^22 Flops, bahkan dengan menggunakan chip GPU yang paling canggih sekalipun, diperlukan waktu berhari-hari. Seiring dengan bertambahnya skala model, kebutuhan akan daya komputasi meningkat secara eksponensial.
Selama proses pelatihan model, penyimpanan data juga menghadapi tantangan. Karena memori GPU terbatas, perlu sering mentransfer data antara hard disk dan memori, bandwidth chip menjadi faktor kunci. Saat pelatihan paralel multi-GPU, laju transfer data antar chip juga sangat penting. Oleh karena itu, kemampuan komputasi chip bukanlah satu-satunya kendala, bandwidth memori sering kali lebih penting.
Rantai industri pembelajaran mendalam terutama mencakup beberapa tahap berikut:
Penyedia GPU perangkat keras: NVIDIA memiliki posisi monopoli di pasar chip AI kelas atas. Perusahaan seperti Google, Intel, dan lainnya juga sedang mengembangkan chip AI mereka sendiri.
Penyedia layanan cloud: terbagi menjadi tiga kategori: penyedia cloud tradisional ( seperti AWS, Google Cloud ), penyedia layanan cloud AI vertikal ( seperti CoreWeave ), dan penyedia inferensi sebagai layanan ( seperti Together.ai ).
Penyedia sumber data pelatihan: Menyediakan data yang besar, berkualitas tinggi, dan spesifik untuk model besar dan model bidang vertikal.
Penyedia basis data: terutama adalah basis data vektor, digunakan untuk penyimpanan dan pemrosesan data tidak terstruktur secara efisien.
Perangkat tepi: termasuk pasokan energi dan sistem pendingin, untuk mendukung operasi kluster komputasi berskala besar.
Aplikasi: Berbagai aplikasi AI yang dikembangkan berdasarkan model besar, seperti sistem percakapan, alat kreasi, dll.
Hubungan antara Cryptocurrency dan AI
Inti dari teknologi Blockchain adalah desentralisasi dan penghilangan kepercayaan. Bitcoin menciptakan sistem transfer nilai yang tidak memerlukan kepercayaan, sementara Ethereum lebih lanjut mewujudkan platform kontrak pintar yang terdesentralisasi dan tanpa kepercayaan. Secara esensial, jaringan blockchain adalah jaringan nilai, di mana setiap transaksi adalah konversi nilai berdasarkan token dasar.
Dalam internet tradisional, nilai perusahaan terutama tercermin melalui arus kas dan rasio harga terhadap laba. Namun, dalam ekosistem blockchain, token asli ( seperti ETH) membawa nilai multidimensional dari jaringan, tidak hanya dapat memperoleh hasil staking, tetapi juga dapat berfungsi sebagai media pertukaran nilai, alat penyimpanan, dan barang konsumsi untuk aktivitas jaringan. Ekonomi token mendefinisikan nilai relatif dari penyelesaian ekosistem, meskipun sulit untuk menentukan harga setiap dimensi secara terpisah, harga token secara komprehensif mencerminkan nilai multidimensional.
Daya tarik token terletak pada kemampuannya untuk memberikan nilai pada fungsi atau gagasan apa pun. Ekonomi token mendefinisikan kembali dan menemukan cara nilai yang sangat penting untuk semua industri, termasuk AI. Dalam industri AI, penerbitan token dapat membentuk kembali nilai di setiap tahap rantai industri, mendorong lebih banyak peserta untuk mendalami jalur yang lebih tersegmentasi. Token tidak hanya membawa arus kas, tetapi juga dapat meningkatkan nilai infrastruktur melalui efek sinergi, membentuk paradigma "protokol gemuk aplikasi ramping".
Karakteristik blockchain yang tidak dapat diubah dan tidak memerlukan kepercayaan juga membawa makna praktis bagi industri AI. Ini dapat mewujudkan beberapa aplikasi yang memerlukan kepercayaan, seperti memastikan bahwa model tidak mengungkapkan privasi saat menggunakan data pengguna. Ketika pasokan GPU tidak mencukupi, kekuatan komputasi dapat didistribusikan melalui jaringan blockchain; ketika GPU diperbarui, perangkat lama yang tidak terpakai juga dapat terus memberikan nilai. Semua ini adalah keuntungan unik dari jaringan nilai global.
Gambaran Umum Proyek Rantai Industri AI di Industri Cryptocurrency
Proyek utama termasuk Render, Golem, dan lainnya. Render sebagai proyek infrastruktur terdesentralisasi yang lebih matang, terutama ditujukan untuk tugas-tugas non-model besar seperti rendering video. Seiring dengan pertumbuhan permintaan AI dan iterasi GPU, permintaan akan kekuatan komputasi GPU bersama mungkin akan meningkat, memberikan kesempatan untuk menemukan nilai dari GPU yang tidak terpakai.
Proyek khas seperti Meson Network bertujuan untuk membangun jaringan berbagi bandwidth global. Namun, berbagi bandwidth mungkin merupakan kebutuhan yang salah, karena untuk kluster komputasi berkinerja tinggi, latensi penyimpanan data lokal jauh lebih rendah dibandingkan dengan penyimpanan terdistribusi.
Proyek seperti EpiK Protocol, Synesis One, dan Masa menyediakan layanan data pelatihan AI. Di antara mereka, Masa berbasis pada teknologi bukti nol pengetahuan, yang mendukung pengumpulan data pribadi. Keunggulan dari proyek semacam ini adalah dapat mewujudkan pengumpulan data yang luas dan mendorong pengguna untuk berkontribusi data melalui insentif token.
Menggunakan teknologi bukti nol pengetahuan untuk menerapkan komputasi privasi dan pelatihan. Proyek utama termasuk Modulus Labs, Giza, dll. Beberapa proyek ZK umum seperti Axiom, Risc Zero juga patut diperhatikan.
Utamanya adalah menggabungkan kemampuan AI dengan aplikasi blockchain tradisional, seperti AI Agent. Fetch.AI adalah proyek perwakilan, yang membantu pengguna membuat keputusan kompleks di blockchain melalui agen pintar.
Seperti Tensor, Allora, Hypertensor, dan lainnya, jaringan adaptif yang dirancang khusus untuk model atau agen AI. Proyek-proyek ini biasanya menggunakan mekanisme yang mirip dengan pembelajaran penguatan, melalui evaluator di blockchain untuk memperbaiki parameter model.
Ringkasan
Meskipun perkembangan AI saat ini terutama berfokus pada teknologi pembelajaran mendalam, masih ada jalur teknologi AI lain yang patut diperhatikan. Pembelajaran mendalam mungkin tidak dapat mencapai kecerdasan buatan umum, tetapi telah diterapkan secara luas di bidang seperti sistem rekomendasi dan memiliki nilai praktis.
Teknologi blockchain dan ekonomi token membawa definisi nilai dan mekanisme penemuan baru bagi industri AI. Mereka dapat membentuk kembali nilai di setiap tahap rantai industri AI, mendorong lebih banyak peserta, dan mewujudkan alokasi sumber daya yang efisien melalui jaringan nilai global.
Namun, jaringan GPU terdesentralisasi masih memiliki kelemahan dalam hal bandwidth dan alat pengembang, saat ini lebih cocok untuk pelatihan model kecil yang tidak mendesak. Untuk perusahaan besar dan misi kritis, platform layanan cloud tradisional masih lebih unggul.
Secara keseluruhan, penggabungan AI dan Blockchain memiliki utilitas praktis dan potensi jangka panjang. Ekonomi token dapat membentuk kembali dan menemukan nilai yang lebih luas, sementara buku besar terdesentralisasi dapat menyelesaikan masalah kepercayaan, memfasilitasi aliran nilai dan penemuan surplus nilai secara global. Seiring dengan perkembangan teknologi dan penyempurnaan ekosistem, penggabungan AI dan Blockchain diharapkan dapat membawa lebih banyak inovasi dan peluang.