AI kavramına sahip Web3 projeleri birinci ve ikinci düzey piyasalarda para çekme hedefi haline geldi.
Web3'ün AI sektöründeki fırsatları, uzun kuyruktaki potansiyel arzı koordine etmek için dağıtılmış teşviklerin kullanılmasında kendini gösteriyor - veri, depolama ve hesaplama arasında; aynı zamanda açık kaynaklı modellerin ve AI Agent'ların merkeziyetsiz pazarının kurulmasında.
AI, Web3 sektöründe esas olarak zincir üzerindeki finans( kripto ödemeleri, işlemler, veri analizi) ve geliştirme desteği için kullanılmaktadır.
AI+Web3'ün faydası, ikisinin tamamlayıcılığında ortaya çıkıyor: Web3, AI merkezileşmesine karşı koymayı umuyor, AI ise Web3'ün sınırlarını aşmasına yardımcı olmayı umuyor.
Giriş
Son iki yılda, AI gelişimi sanki hızlandırma butonuna basılmış gibi, Chatgpt'in tetiklediği kelebek etkisi, sadece üretken yapay zekanın yeni bir dünyasını açmakla kalmadı, aynı zamanda Web3 alanında da güçlü bir dalga yarattı.
AI kavramının etkisiyle, yavaşlayan kripto piyasasında finansmanın belirgin şekilde arttığı görülüyor. İstatistiklere göre, sadece 2024'ün ilk yarısında 64 Web3+AI projesi finansman sağladı; yapay zeka tabanlı işletim sistemi Zyber365, A turunda 100 milyon dolarlık en yüksek finansman miktarına ulaştı.
İkincil piyasa daha da canlı hale geldi, kripto agregat sitesi Coingecko verilerine göre, sadece bir yıl içinde AI alanının toplam piyasa değeri 48,5 milyar dolara ulaştı, 24 saatlik işlem hacmi ise 8,6 milyar dolara yaklaştı; ana akım AI teknolojilerindeki gelişmelerin sağladığı avantajlar belirgin, OpenAI'nin Sora metin-video modelinin yayınlanmasının ardından, AI sektöründeki ortalama fiyat %151 arttı; AI etkisi aynı zamanda kripto paraların çekim alanlarından biri olan Meme'ye de yansıdı: İlk AI Ajansı konseptine sahip MemeCoin - GOAT hızla popülerlik kazandı ve 1,4 milyar dolarlık bir değerleme elde ederek AI Meme ilgisini başarıyla artırdı.
AI+Web3 ile ilgili araştırmalar ve konular da oldukça popüler. AI+Depin'den AI Memecoin'e, şu anda AI Agent ve AI DAO'ya kadar, FOMO duygusu yeni anlatıların dönüş hızına yetişemiyor.
AI+Web3, bu bol sıcak parayla, fırsatlarla ve geleceğe dair hayallerle dolu terim kombinasyonu, kaçınılmaz olarak insanların bunu kapitalin düzenlediği bir evlilik olarak görmesine neden oluyor. Bu muhteşem elbisenin altında, gerçekten spekülatörlerin sahnesi mi, yoksa bir uyanışın eşiği mi olduğuna karar vermekte zorlanıyoruz?
Bu soruyu yanıtlamak için, her iki taraf için de kritik bir düşünce, karşı tarafın varlığıyla daha iyi bir hale gelip gelmeyeceğidir. Karşı tarafın modelinden faydalanma imkanı var mı? Bu yazıda, öncekilerin üzerine çıkarak bu yapıyı incelemeye çalışıyoruz: Web3, AI teknolojisi yığınlarının her aşamasında nasıl bir rol oynayabilir ve AI, Web3'e ne gibi yeni canlılıklar katabilir?
Bölüm.1 AI yığınında Web3'te ne gibi fırsatlar var?
Bu konuyu açmadan önce, büyük AI modellerinin teknik yığınını anlamamız gerekiyor:
Tüm süreci daha basit bir dilde ifade etmek gerekirse: "Büyük model" insan beynine benzer, erken aşamalarda bu beyin yeni dünyaya gelen bir bebeğe aittir, çevresindeki büyük miktarda bilgiyi gözlemleyip alarak bu dünyayı anlamaya çalışır, bu da verilerin "toplanması" aşamasıdır; bilgisayarlar, insanın görme, işitme gibi birçok duyusuna sahip olmadığından, eğitimden önce, dışarıdaki büyük ölçekli etiketsiz bilgiler "ön işleme" ile bilgisayarın anlayabileceği ve kullanabileceği bilgi formatına dönüştürülmelidir.
Veri girdikten sonra AI, "eğitim" yoluyla anlayış ve tahmin kabiliyetine sahip bir model oluşturur; bu, bir bebeğin dış dünyayı anlamaya ve öğrenmeye başladığı sürecine benzetilebilir. Modelin parametreleri, bebeğin öğrenme sürecinde sürekli olarak ayarlanan dil becerileri gibidir. Öğrenilen içerik konulara ayrılmaya başladığında veya insanlarla iletişim kurarak geri bildirim alıp düzeltmeler yapıldığında, büyük modelin "ince ayar" aşamasına geçilir.
Çocuklar büyüdükçe ve konuşmayı öğrendikçe, yeni diyaloglarda anlamı kavrayabilir ve kendi duygularını ve düşüncelerini ifade edebilirler. Bu aşama, AI büyük modellerinin "çıkarım" sürecine benzemektedir; model, yeni dil ve metin girişlerine yönelik tahmin ve analiz yapabilmektedir. Bebekler dil yetenekleri aracılığıyla duygularını ifade eder, nesneleri tanımlar ve çeşitli sorunları çözer; bu da AI büyük modellerinin eğitim tamamlandıktan sonra çıkarım aşamasında çeşitli özel görevlerde, örneğin görüntü sınıflandırması, ses tanıma gibi, uygulanmasına benzemektedir.
AI Agent, büyük modellerin bir sonraki şekline daha yakın hale geliyor - bağımsız olarak görevleri yerine getirebilen ve karmaşık hedefler peşinde koşabilen, sadece düşünme yeteneğine sahip olmakla kalmayıp, aynı zamanda hafızaya sahip, planlama yapabilen ve araçları kullanarak dünya ile etkileşimde bulunabilen bir varlık.
Şu anda, AI'nın her alandaki zorluklarına yönelik, Web3, AI model süreçlerinin her aşamasını kapsayan çok katmanlı ve birbiriyle bağlantılı bir ekosistem oluşturmaya başlamıştır.
Birincisi, Temel Katman: Hesaplama Gücü ve Verilerin Airbnb'si
Hashrate
Şu anda, AI'nın en yüksek maliyetlerinden biri, model eğitimi ve çıkarım modeli için gereken hesaplama gücü ve enerji.
Bir örnek, Meta'nın LLAMA3'ün 16000 adet NVIDIA tarafından üretilen H100GPU('e ihtiyacı var. Bu, yapay zeka ve yüksek performanslı hesaplama iş yükleri için tasarlanmış birincil grafik işleme birimidir). Eğitimin tamamlanması 30 gün sürmektedir. Sonuncusunun 80GB versiyonunun birim fiyatı 30.000 ile 40.000 dolar arasında değişmektedir. Bu, 4-7 milyar dolar arasında bir hesaplama donanımı yatırımı gerektiriyor( GPU + ağ çipleri). Ayrıca, aylık eğitim 1.6 milyar kilovat saat tüketmektedir ve enerji harcamaları her ay yaklaşık 20 milyon dolardır.
AI hesaplama gücünün hafifletilmesi, Web3'ün AI ile kesiştiği en erken alanlardan biridir - DePin( merkeziyetsiz fiziksel altyapı ağı) şu anda DePin Ninja veri sitesi 1400'den fazla projeyi sergilemektedir, bunlar arasında GPU hesaplama gücü paylaşımını temsil eden projeler io.net, Aethir, Akash, Render Network gibi projelerdir.
Ana mantığı şudur: Platform, elinde kullanılmayan GPU kaynaklarına sahip bireylerin veya kuruluşların izin almaksızın merkeziyetsiz bir şekilde hesaplama güçlerini katkıda bulunmalarına olanak tanır, Uber veya Airbnb benzeri alıcı ve satıcıların çevrimiçi pazarında, yeterince kullanılmayan GPU kaynaklarının kullanım oranını artırır, son kullanıcılar da böylece daha düşük maliyetli verimli hesaplama kaynaklarına erişir; aynı zamanda, teminat mekanizması da kalite kontrol mekanizmasını ihlal eden veya ağı kesintiye uğratan durumlarda, kaynak sağlayıcılarının uygun şekilde cezalandırılmasını garanti eder.
Özellikleri şunlardır:
Boş GPU kaynaklarını toplamak: Sağlayıcılar, esas olarak üçüncü taraf bağımsız küçük ve orta ölçekli veri merkezleri, kripto madencilik çiftlikleri gibi işletmelerin fazla hesaplama kaynaklarıdır ve PoS konsensüs mekanizması ile madencilik yapan donanımlardır, örneğin FileCoin ve ETH madencileri. Şu anda, başlangıç eşiği daha düşük olan cihazları başlatmaya yönelik projeler de mevcuttur; örneğin exolab, MacBook, iPhone, iPad gibi yerel cihazları kullanarak büyük model çıkarımı için bir hesaplama ağı kurmaktadır.
AI hesaplama gücünün uzun kuyruk pazarında:
a. "Teknoloji açısından" merkeziyetsiz hesap gücü pazarı, çıkarım adımları için daha uygundur. Eğitim, büyük ölçekli GPU'ların sağladığı veri işleme kapasitesine daha fazla bağımlıdır, oysa çıkarım için GPU hesaplama performansı görece daha düşüktür; örneğin Aethir, düşük gecikmeli render çalışmaları ve AI çıkarım uygulamalarına odaklanmaktadır.
b. "Talep tarafında" orta ve küçük ölçekli hesaplama gücü talep edenler kendi büyük modellerini ayrı bir şekilde eğitmeyecekler, bunun yerine yalnızca az sayıda önde gelen büyük modeller etrafında optimizasyon ve ince ayar yapmayı seçecekler, bu senaryolar ise doğal olarak dağıtılmış boşta kalan hesaplama gücü kaynakları için uygundur.
Merkeziyetsiz mülkiyet: Blok zincirinin teknolojik anlamı, kaynak sahiplerinin her zaman kaynaklarına olan kontrolünü elinde bulundurması, talebe göre esnek bir şekilde ayarlama yapabilmesi ve aynı zamanda kazanç elde etmesidir.
Veri
Veri, AI'nin temelidir. Eğer veri yoksa, hesaplama, yüzeydeki bir su bitkisi gibi tamamen işe yaramazdır ve veri ile model arasındaki ilişki, "Çöp girerse, çöp çıkar" atasözü gibidir; verinin miktarı ve girdi kalitesi, nihai modelin çıktı kalitesini belirler. Mevcut AI modellerinin eğitimi açısından, veri modelin dil yeteneğini, anlama yeteneğini, hatta değer yargılarını ve insani davranışlarını belirler. Şu anda, AI'nın veri ihtiyacı sıkıntısı esas olarak aşağıdaki dört alanda yoğunlaşmaktadır:
Veri açlığı: AI modellerinin eğitimi büyük miktarda veri girişi gerektirir. Kamuya açık kaynaklar, OpenAI'nin GPT-4'ü eğitmek için trilyon seviyesinde parametre kullandığını göstermektedir.
Veri kalitesi: AI'nin çeşitli sektörlerle entegrasyonu ile birlikte, verinin zamanında sunulması, veri çeşitliliği, dikey verilerin uzmanlığı ve sosyal medya gibi yeni veri kaynaklarının duygularının alınması, veri kalitesi için yeni gereksinimler ortaya çıkarmaktadır.
Gizlilik ve uyum sorunları: Şu anda çeşitli ülkeler ve şirketler kaliteli veri setlerinin öneminin farkına varıyor ve veri seti tarama işlemlerine sınırlamalar getiriyor.
Veri işleme maliyetleri yüksek: Veri miktarı büyük, işleme süreci karmaşık. Açık veriler, AI şirketlerinin %30'undan fazlasının Ar-Ge maliyetinin temel veri toplama ve işleme için harcandığını göstermektedir.
Şu anda, web3 çözümleri aşağıdaki dört alanda kendini göstermektedir:
Veri toplama: Ücretsiz olarak toplanan gerçek dünya verileri hızla tükeniyor, AI şirketlerinin veriler için yaptığı harcamalar her yıl artıyor. Ancak bu harcamalar, verilerin gerçek katkıcılarına geri dönmüyor, platformlar tamamen verilerin sağladığı değer yaratımının tadını çıkarıyor.
Veri yaratımına katkıda bulunan gerçek kullanıcıların aynı zamanda bu değer yaratımına katılımını sağlamak ve dağıtık ağ ve teşvik mekanizmaları aracılığıyla, düşük maliyetle kullanıcıların daha özel ve daha değerli verilere erişimini sağlamak, Web3'ün vizyonudur.
Grass, merkeziyetsiz bir veri katmanı ve ağdır, kullanıcılar Grass düğümleri çalıştırarak, boşta kalan bant genişliğini ve iletim trafiğini katkıda bulunarak, internet genelindeki gerçek zamanlı verileri yakalayabilir ve token ödülleri alabilirler;
Vana, kullanıcıların özel verilerini (DLP) adlı belirli bir veri akış havuzuna yükleyebileceği benzersiz bir veri akış havuzu konsepti sunmaktadır. Kullanıcılar alışveriş kayıtları, tarama alışkanlıkları, sosyal medya etkinlikleri gibi ( verilerini yükleyebilir ve bu verileri belirli üçüncü tarafların kullanmasına izin verme konusunda esnek bir seçim yapabilirler;
PublicAI'de, kullanıcılar X üzerinde )Web3'ü sınıflandırma etiketi olarak kullanabilir ve veri toplamak için @PublicAI'yi etiketleyebilir.
Veri Ön İşleme: AI'nın veri işleme sürecinde, toplanan veriler genellikle gürültülü ve hatalı olduğu için, model eğitilmeden önce temizlenip kullanılabilir bir formata dönüştürülmesi gerekir. Bu, standartlaştırma, filtreleme ve eksik değerlerin işlenmesini içeren tekrarlayan görevleri kapsar. Bu aşama, AI sektöründeki nadir insanlı aşamalardan biridir ve veri etiketleyicisi adı verilen bir sektörü doğurmuştur. Modellerin veri kalitesi talepleri arttıkça, veri etiketleyicilerinin gereksinimleri de artmaktadır ve bu görev doğal olarak Web3'ün merkeziyetsiz teşvik mekanizmasına uygundur.
Şu anda, Grass ve OpenLayer bu kritik aşama olan veri etiketleme sürecine katılmayı düşünüyor.
Synesis, veri kalitesini vurgulayarak "Train2earn" kavramını ortaya koydu. Kullanıcılar, etiketlenmiş veriler, yorumlar veya diğer girdi türlerini sağlayarak ödüller kazanabilirler.
Veri etiketleme projesi Sapien, etiketleme görevlerini oyunlaştırarak kullanıcıların daha fazla puan kazanmak için puanlarını teminat olarak vermelerine olanak tanır.
Veri gizliliği ve güvenliği: Netleştirilmesi gereken şey, veri gizliliği ve güvenliğinin iki farklı kavram olduğudur. Veri gizliliği, hassas verilerin işlenmesini içerirken, veri güvenliği, veri bilgilerini yetkisiz erişim, imha ve hırsızlığa karşı korur. Bu nedenle, Web3 gizlilik teknolojisinin avantajları ve potansiyel uygulama senaryoları iki alanda kendini göstermektedir: #AI或#1( hassas verilerin eğitimi; )2( veri işbirliği: Birden fazla veri sahibi, orijinal verilerini paylaşmadan AI eğitimine ortak katılabilir.
Günümüzde Web3'te yaygın olarak kullanılan gizlilik teknolojileri şunlardır:
Güvenilir İcra Ortamı ) TEE (, örneğin Super Protocol;
Tam homomorfik şifreleme ) FHE (, örneğin BasedAI, Fhenix.io veya Inco Network;
Sıfır bilgi teknolojisi ) zk (, Reclaim Protocol'ün zkTLS teknolojisini kullanarak HTTPS trafiğinin sıfır bilgi kanıtlarını oluşturmasına olanak tanır, kullanıcıların hassas bilgileri ifşa etmeden dış web sitelerinden etkinlik, itibar ve kimlik verilerini güvenli bir şekilde içe aktarmasına izin verir.
Ancak, bu alan hâlâ erken aşamada ve çoğu proje hâlâ keşif aşamasında; şu anki bir sıkıntı, hesaplama maliyetlerinin çok yüksek olması. Bazı örnekler:
zkML çerçevesi EZKL, 1M-nanoGPT modelinin kanıtını oluşturmak için yaklaşık 80 dakika gerektirir.
Modulus Labs verilerine göre, zkML'in maliyeti saf hesaplamalardan 1000 kat daha fazladır.
Veri depolama: Verilere sahip olduktan sonra, verileri zincirde depolamak ve bu verilerden üretilen LLM'yi kullanmak için bir yere ihtiyaç vardır. Veri kullanılabilirliği )DA( temel sorun olarak alındığında, Ethereum'un Danksharding yükseltimi öncesinde, verimliliği 0.08MB'dır. Aynı zamanda, AI modellerinin eğitimi ve gerçek zamanlı çıkarım genellikle saniyede 50 ila 100GB veri verimliliği gerektirir. Bu büyüklükteki bir fark, mevcut zincir üzerindeki çözümlerin "kaynak yoğun AI uygulamaları ile" başa çıkmasını zorlaştırmaktadır.
0g.AI bu kategorinin temsilci projesidir. Bu, bir
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
9 Likes
Reward
9
5
Share
Comment
0/400
wagmi_eventually
· 14h ago
Yine enayileri oyuna getirmeye geldiler.
View OriginalReply0
GasWaster
· 14h ago
bruh l2s gerçekten de yapay zekayı bir gas kabusundan kurtarabilir ngl...
AI+Web3 entegrasyonu kaçınılmaz: Bilgi İşlem Gücü paylaşımından veri teşvikine kadar yeni bir düzen
AI+Web3: Kuleler ve Meydanlar
TL;DR
AI kavramına sahip Web3 projeleri birinci ve ikinci düzey piyasalarda para çekme hedefi haline geldi.
Web3'ün AI sektöründeki fırsatları, uzun kuyruktaki potansiyel arzı koordine etmek için dağıtılmış teşviklerin kullanılmasında kendini gösteriyor - veri, depolama ve hesaplama arasında; aynı zamanda açık kaynaklı modellerin ve AI Agent'ların merkeziyetsiz pazarının kurulmasında.
AI, Web3 sektöründe esas olarak zincir üzerindeki finans( kripto ödemeleri, işlemler, veri analizi) ve geliştirme desteği için kullanılmaktadır.
AI+Web3'ün faydası, ikisinin tamamlayıcılığında ortaya çıkıyor: Web3, AI merkezileşmesine karşı koymayı umuyor, AI ise Web3'ün sınırlarını aşmasına yardımcı olmayı umuyor.
Giriş
Son iki yılda, AI gelişimi sanki hızlandırma butonuna basılmış gibi, Chatgpt'in tetiklediği kelebek etkisi, sadece üretken yapay zekanın yeni bir dünyasını açmakla kalmadı, aynı zamanda Web3 alanında da güçlü bir dalga yarattı.
AI kavramının etkisiyle, yavaşlayan kripto piyasasında finansmanın belirgin şekilde arttığı görülüyor. İstatistiklere göre, sadece 2024'ün ilk yarısında 64 Web3+AI projesi finansman sağladı; yapay zeka tabanlı işletim sistemi Zyber365, A turunda 100 milyon dolarlık en yüksek finansman miktarına ulaştı.
İkincil piyasa daha da canlı hale geldi, kripto agregat sitesi Coingecko verilerine göre, sadece bir yıl içinde AI alanının toplam piyasa değeri 48,5 milyar dolara ulaştı, 24 saatlik işlem hacmi ise 8,6 milyar dolara yaklaştı; ana akım AI teknolojilerindeki gelişmelerin sağladığı avantajlar belirgin, OpenAI'nin Sora metin-video modelinin yayınlanmasının ardından, AI sektöründeki ortalama fiyat %151 arttı; AI etkisi aynı zamanda kripto paraların çekim alanlarından biri olan Meme'ye de yansıdı: İlk AI Ajansı konseptine sahip MemeCoin - GOAT hızla popülerlik kazandı ve 1,4 milyar dolarlık bir değerleme elde ederek AI Meme ilgisini başarıyla artırdı.
AI+Web3 ile ilgili araştırmalar ve konular da oldukça popüler. AI+Depin'den AI Memecoin'e, şu anda AI Agent ve AI DAO'ya kadar, FOMO duygusu yeni anlatıların dönüş hızına yetişemiyor.
AI+Web3, bu bol sıcak parayla, fırsatlarla ve geleceğe dair hayallerle dolu terim kombinasyonu, kaçınılmaz olarak insanların bunu kapitalin düzenlediği bir evlilik olarak görmesine neden oluyor. Bu muhteşem elbisenin altında, gerçekten spekülatörlerin sahnesi mi, yoksa bir uyanışın eşiği mi olduğuna karar vermekte zorlanıyoruz?
Bu soruyu yanıtlamak için, her iki taraf için de kritik bir düşünce, karşı tarafın varlığıyla daha iyi bir hale gelip gelmeyeceğidir. Karşı tarafın modelinden faydalanma imkanı var mı? Bu yazıda, öncekilerin üzerine çıkarak bu yapıyı incelemeye çalışıyoruz: Web3, AI teknolojisi yığınlarının her aşamasında nasıl bir rol oynayabilir ve AI, Web3'e ne gibi yeni canlılıklar katabilir?
Bölüm.1 AI yığınında Web3'te ne gibi fırsatlar var?
Bu konuyu açmadan önce, büyük AI modellerinin teknik yığınını anlamamız gerekiyor:
Tüm süreci daha basit bir dilde ifade etmek gerekirse: "Büyük model" insan beynine benzer, erken aşamalarda bu beyin yeni dünyaya gelen bir bebeğe aittir, çevresindeki büyük miktarda bilgiyi gözlemleyip alarak bu dünyayı anlamaya çalışır, bu da verilerin "toplanması" aşamasıdır; bilgisayarlar, insanın görme, işitme gibi birçok duyusuna sahip olmadığından, eğitimden önce, dışarıdaki büyük ölçekli etiketsiz bilgiler "ön işleme" ile bilgisayarın anlayabileceği ve kullanabileceği bilgi formatına dönüştürülmelidir.
Veri girdikten sonra AI, "eğitim" yoluyla anlayış ve tahmin kabiliyetine sahip bir model oluşturur; bu, bir bebeğin dış dünyayı anlamaya ve öğrenmeye başladığı sürecine benzetilebilir. Modelin parametreleri, bebeğin öğrenme sürecinde sürekli olarak ayarlanan dil becerileri gibidir. Öğrenilen içerik konulara ayrılmaya başladığında veya insanlarla iletişim kurarak geri bildirim alıp düzeltmeler yapıldığında, büyük modelin "ince ayar" aşamasına geçilir.
Çocuklar büyüdükçe ve konuşmayı öğrendikçe, yeni diyaloglarda anlamı kavrayabilir ve kendi duygularını ve düşüncelerini ifade edebilirler. Bu aşama, AI büyük modellerinin "çıkarım" sürecine benzemektedir; model, yeni dil ve metin girişlerine yönelik tahmin ve analiz yapabilmektedir. Bebekler dil yetenekleri aracılığıyla duygularını ifade eder, nesneleri tanımlar ve çeşitli sorunları çözer; bu da AI büyük modellerinin eğitim tamamlandıktan sonra çıkarım aşamasında çeşitli özel görevlerde, örneğin görüntü sınıflandırması, ses tanıma gibi, uygulanmasına benzemektedir.
AI Agent, büyük modellerin bir sonraki şekline daha yakın hale geliyor - bağımsız olarak görevleri yerine getirebilen ve karmaşık hedefler peşinde koşabilen, sadece düşünme yeteneğine sahip olmakla kalmayıp, aynı zamanda hafızaya sahip, planlama yapabilen ve araçları kullanarak dünya ile etkileşimde bulunabilen bir varlık.
Şu anda, AI'nın her alandaki zorluklarına yönelik, Web3, AI model süreçlerinin her aşamasını kapsayan çok katmanlı ve birbiriyle bağlantılı bir ekosistem oluşturmaya başlamıştır.
Birincisi, Temel Katman: Hesaplama Gücü ve Verilerin Airbnb'si
Hashrate
Şu anda, AI'nın en yüksek maliyetlerinden biri, model eğitimi ve çıkarım modeli için gereken hesaplama gücü ve enerji.
Bir örnek, Meta'nın LLAMA3'ün 16000 adet NVIDIA tarafından üretilen H100GPU('e ihtiyacı var. Bu, yapay zeka ve yüksek performanslı hesaplama iş yükleri için tasarlanmış birincil grafik işleme birimidir). Eğitimin tamamlanması 30 gün sürmektedir. Sonuncusunun 80GB versiyonunun birim fiyatı 30.000 ile 40.000 dolar arasında değişmektedir. Bu, 4-7 milyar dolar arasında bir hesaplama donanımı yatırımı gerektiriyor( GPU + ağ çipleri). Ayrıca, aylık eğitim 1.6 milyar kilovat saat tüketmektedir ve enerji harcamaları her ay yaklaşık 20 milyon dolardır.
AI hesaplama gücünün hafifletilmesi, Web3'ün AI ile kesiştiği en erken alanlardan biridir - DePin( merkeziyetsiz fiziksel altyapı ağı) şu anda DePin Ninja veri sitesi 1400'den fazla projeyi sergilemektedir, bunlar arasında GPU hesaplama gücü paylaşımını temsil eden projeler io.net, Aethir, Akash, Render Network gibi projelerdir.
Ana mantığı şudur: Platform, elinde kullanılmayan GPU kaynaklarına sahip bireylerin veya kuruluşların izin almaksızın merkeziyetsiz bir şekilde hesaplama güçlerini katkıda bulunmalarına olanak tanır, Uber veya Airbnb benzeri alıcı ve satıcıların çevrimiçi pazarında, yeterince kullanılmayan GPU kaynaklarının kullanım oranını artırır, son kullanıcılar da böylece daha düşük maliyetli verimli hesaplama kaynaklarına erişir; aynı zamanda, teminat mekanizması da kalite kontrol mekanizmasını ihlal eden veya ağı kesintiye uğratan durumlarda, kaynak sağlayıcılarının uygun şekilde cezalandırılmasını garanti eder.
Özellikleri şunlardır:
Boş GPU kaynaklarını toplamak: Sağlayıcılar, esas olarak üçüncü taraf bağımsız küçük ve orta ölçekli veri merkezleri, kripto madencilik çiftlikleri gibi işletmelerin fazla hesaplama kaynaklarıdır ve PoS konsensüs mekanizması ile madencilik yapan donanımlardır, örneğin FileCoin ve ETH madencileri. Şu anda, başlangıç eşiği daha düşük olan cihazları başlatmaya yönelik projeler de mevcuttur; örneğin exolab, MacBook, iPhone, iPad gibi yerel cihazları kullanarak büyük model çıkarımı için bir hesaplama ağı kurmaktadır.
AI hesaplama gücünün uzun kuyruk pazarında:
a. "Teknoloji açısından" merkeziyetsiz hesap gücü pazarı, çıkarım adımları için daha uygundur. Eğitim, büyük ölçekli GPU'ların sağladığı veri işleme kapasitesine daha fazla bağımlıdır, oysa çıkarım için GPU hesaplama performansı görece daha düşüktür; örneğin Aethir, düşük gecikmeli render çalışmaları ve AI çıkarım uygulamalarına odaklanmaktadır.
b. "Talep tarafında" orta ve küçük ölçekli hesaplama gücü talep edenler kendi büyük modellerini ayrı bir şekilde eğitmeyecekler, bunun yerine yalnızca az sayıda önde gelen büyük modeller etrafında optimizasyon ve ince ayar yapmayı seçecekler, bu senaryolar ise doğal olarak dağıtılmış boşta kalan hesaplama gücü kaynakları için uygundur.
Veri
Veri, AI'nin temelidir. Eğer veri yoksa, hesaplama, yüzeydeki bir su bitkisi gibi tamamen işe yaramazdır ve veri ile model arasındaki ilişki, "Çöp girerse, çöp çıkar" atasözü gibidir; verinin miktarı ve girdi kalitesi, nihai modelin çıktı kalitesini belirler. Mevcut AI modellerinin eğitimi açısından, veri modelin dil yeteneğini, anlama yeteneğini, hatta değer yargılarını ve insani davranışlarını belirler. Şu anda, AI'nın veri ihtiyacı sıkıntısı esas olarak aşağıdaki dört alanda yoğunlaşmaktadır:
Veri açlığı: AI modellerinin eğitimi büyük miktarda veri girişi gerektirir. Kamuya açık kaynaklar, OpenAI'nin GPT-4'ü eğitmek için trilyon seviyesinde parametre kullandığını göstermektedir.
Veri kalitesi: AI'nin çeşitli sektörlerle entegrasyonu ile birlikte, verinin zamanında sunulması, veri çeşitliliği, dikey verilerin uzmanlığı ve sosyal medya gibi yeni veri kaynaklarının duygularının alınması, veri kalitesi için yeni gereksinimler ortaya çıkarmaktadır.
Gizlilik ve uyum sorunları: Şu anda çeşitli ülkeler ve şirketler kaliteli veri setlerinin öneminin farkına varıyor ve veri seti tarama işlemlerine sınırlamalar getiriyor.
Veri işleme maliyetleri yüksek: Veri miktarı büyük, işleme süreci karmaşık. Açık veriler, AI şirketlerinin %30'undan fazlasının Ar-Ge maliyetinin temel veri toplama ve işleme için harcandığını göstermektedir.
Şu anda, web3 çözümleri aşağıdaki dört alanda kendini göstermektedir:
Veri yaratımına katkıda bulunan gerçek kullanıcıların aynı zamanda bu değer yaratımına katılımını sağlamak ve dağıtık ağ ve teşvik mekanizmaları aracılığıyla, düşük maliyetle kullanıcıların daha özel ve daha değerli verilere erişimini sağlamak, Web3'ün vizyonudur.
Grass, merkeziyetsiz bir veri katmanı ve ağdır, kullanıcılar Grass düğümleri çalıştırarak, boşta kalan bant genişliğini ve iletim trafiğini katkıda bulunarak, internet genelindeki gerçek zamanlı verileri yakalayabilir ve token ödülleri alabilirler;
Vana, kullanıcıların özel verilerini (DLP) adlı belirli bir veri akış havuzuna yükleyebileceği benzersiz bir veri akış havuzu konsepti sunmaktadır. Kullanıcılar alışveriş kayıtları, tarama alışkanlıkları, sosyal medya etkinlikleri gibi ( verilerini yükleyebilir ve bu verileri belirli üçüncü tarafların kullanmasına izin verme konusunda esnek bir seçim yapabilirler;
PublicAI'de, kullanıcılar X üzerinde )Web3'ü sınıflandırma etiketi olarak kullanabilir ve veri toplamak için @PublicAI'yi etiketleyebilir.
Şu anda, Grass ve OpenLayer bu kritik aşama olan veri etiketleme sürecine katılmayı düşünüyor.
Synesis, veri kalitesini vurgulayarak "Train2earn" kavramını ortaya koydu. Kullanıcılar, etiketlenmiş veriler, yorumlar veya diğer girdi türlerini sağlayarak ödüller kazanabilirler.
Veri etiketleme projesi Sapien, etiketleme görevlerini oyunlaştırarak kullanıcıların daha fazla puan kazanmak için puanlarını teminat olarak vermelerine olanak tanır.
Günümüzde Web3'te yaygın olarak kullanılan gizlilik teknolojileri şunlardır:
Güvenilir İcra Ortamı ) TEE (, örneğin Super Protocol;
Tam homomorfik şifreleme ) FHE (, örneğin BasedAI, Fhenix.io veya Inco Network;
Sıfır bilgi teknolojisi ) zk (, Reclaim Protocol'ün zkTLS teknolojisini kullanarak HTTPS trafiğinin sıfır bilgi kanıtlarını oluşturmasına olanak tanır, kullanıcıların hassas bilgileri ifşa etmeden dış web sitelerinden etkinlik, itibar ve kimlik verilerini güvenli bir şekilde içe aktarmasına izin verir.
Ancak, bu alan hâlâ erken aşamada ve çoğu proje hâlâ keşif aşamasında; şu anki bir sıkıntı, hesaplama maliyetlerinin çok yüksek olması. Bazı örnekler:
zkML çerçevesi EZKL, 1M-nanoGPT modelinin kanıtını oluşturmak için yaklaşık 80 dakika gerektirir.
Modulus Labs verilerine göre, zkML'in maliyeti saf hesaplamalardan 1000 kat daha fazladır.