رمزگشایی از ذهن دیجیتال: فناوریهای محوری قدرتبخش به ChatGPT
ChatGPT، پدیدهای که بهسرعت درک ما از هوش مصنوعی را بازتعریف کرده است، گواهی بر پیشرفتهای شگرف در حوزه یادگیری ماشین محسوب میشود. در قلب این فناوری، تلفیق پیچیدهای از تکنولوژیهای پیشرو نهفته است که عمدتاً در دامنه مدلهای زبانی بزرگ (LLMs) و معماری ترنسفورمر مولد پیشآموزشدیده (Generative Pre-trained Transformer) ریشه دارند. درک این عناصر بنیادین نه تنها برای قدردانی از توانمندیهای ChatGPT، بلکه برای درک پیامدهای بالقوه آن در بخشهای مختلف، از جمله چشمانداز در حال رشد رمزارزها و بلاکچین، حیاتی است.
کالبدشکافی مغز متفکر ChatGPT: مدلهای زبانی بزرگ (LLMs)
در بنیادیترین سطح، ChatGPT نسخهای از یک مدل زبانی بزرگ (LLM) است. اینها برنامههای هوش مصنوعی هستند که برای درک، تولید و دستکاری زبان انسانی طراحی شدهاند. برخلاف سیستمهای سنتی هوش مصنوعی که مبتنی بر قانون (Rule-based) بودند، مدلهای زبانی بزرگ با قرار گرفتن در معرض حجم عظیمی از دادههای متنی، انجام این وظایف پیچیده را یاد میگیرند.
ویژگیهای کلیدی LLMها:
- مقیاس عظیم: LLMها معمولاً دارای میلیاردها و گاهی تریلیونها پارامتر هستند؛ متغیرهای داخلی که مدل در طول آموزش برای یادگیری الگوها و روابط در دادهها، آنها را تنظیم میکند. این مقیاس غولآسا به آنها اجازه میدهد تا ظرافتها و پیچیدگیهای زبانی را که مدلهای کوچکتر از درک آنها عاجزند، ثبت کنند.
- دادههای آموزشی گسترده: اثربخشی یک LLM مستقیماً با وسعت و عمق دادههای آموزشی آن مرتبط است. این دادهها معمولاً شامل مجموعه عظیمی از متون اینترنتی است: کتابها، مقالات، وبسایتها، مخازن کد، رسانههای اجتماعی و غیره. این مواجهه، آنها را قادر میسازد تا درک گستردهای از حقایق، تواناییهای استدلال و سبکهای مختلف نوشتاری پیدا کنند.
- ماهیت احتمالاتمحور: LLMها بر اساس احتمالات عمل میکنند. هنگام تولید متن، آنها محتملترین کلمه یا دنبالهای از کلمات بعدی را بر اساس بافت (Context) قبلی پیشبینی میکنند. این یک درک واقعی به معنای انسانی نیست، بلکه یک قابلیت الگویابی و تولید بسیار پیچیده است که هوشمند به نظر میرسد.
- درک زبان با کاربرد عمومی: برخلاف مدلهایی که برای یک وظیفه خاص (مثلاً تشخیص هرزنامه) آموزش دیدهاند، LLMها به عنوان «همه فنحریف» طراحی شدهاند. آموزش گسترده آنها اجازه میدهد تا با حداقل تنظیمات یا حتی بدون نیاز به تنظیم دقیق اضافی، با طیف وسیعی از وظایف مرتبط با زبان سازگار شوند.
از داده تا دیالوگ: رژیم آموزشی LLMها
توسعه یک LLM مانند مدلی که قدرتبخش ChatGPT است، شامل یک فرایند آموزشی چند مرحلهای است:
-
پیشآموزش (یادگیری بدون نظارت):
- هدف: یادگیری ساختارهای بنیادی، دستور زبان، حقایق و معناشناسی زبان انسانی.
- فرایند: حجم عظیمی از دادههای متنی خام از اینترنت به مدل تزریق میشود. وظیفه اصلی مدل در این مرحله اغلب «پیشبینی توکن بعدی» است؛ به این معنی که یاد میگیرد با توجه به تمام کلمات قبلی، کلمه (یا واحد فرعی کلمه) بعدی را در یک دنباله پیشبینی کند. با تکرار این وظیفه در میلیاردها نمونه، مدل یک نمایش داخلی از زبان ایجاد میکند.
- نتیجه: یک مدل پایه قدرتمند که قادر به تولید متن منسجم است، اما هنوز برای تعامل محاورهای یا پایبندی به دستورالعملهای خاص تخصصی نشده است.
-
تنظیم دقیق (یادگیری تحت نظارت و یادگیری تقویتی):
- هدف: تطبیق مدل پیشآموزشدیده برای وظایف خاص، همسو کردن آن با ترجیحات انسانی و تبدیل آن به مدلی مفیدتر، بیخطرتر و صادقتر.
- فرایند: این مرحله شامل آموزش بیشتر روی مجموعهدادههای کوچکتر و دستچین شده است که شامل نمونههایی از رفتار مطلوب میباشد. برای عوامل محاورهای مانند ChatGPT، این مرحله برای توسعه توانایی پیروی از دستورالعملها، شرکت در گفتگو، پاسخ به سؤالات و بهطور کلی رفتار به عنوان یک دستیار مفید، حیاتی است. به زودی به بررسی عمیقتر یک تکنیک کلیدی تنظیم دقیق یعنی RLHF خواهیم پرداخت.
معماری ترنسفورمر: موتور مولد ChatGPT
تحولی که عصر مدرن LLMها، از جمله ChatGPT را ممکن ساخت، تا حد زیادی مدیون معماری ترنسفورمر (Transformer) است. این معماری که در سال ۲۰۱۷ توسط محققان گوگل در مقاله معروف «Attention Is All You Need» معرفی شد، مدلسازی دنباله-به-دنباله را متحول کرد و بر محدودیتهای معماریهای قبلی مانند شبکههای عصبی بازگشتی (RNN) و شبکههای عصبی پیچشی (CNN) غلبه کرد.
نوآوریهای کلیدی معماری ترنسفورمر:
- مکانیزم خود-توجهی (Self-Attention): این قلب تپنده ترنسفورمر است. شبکههای عصبی سنتی دادههای متوالی را کلمه به کلمه پردازش میکردند که درک وابستگیهای طولانیمدت (یعنی چگونگی ارتباط کلماتی که در یک جمله از هم دور هستند) را دشوار میکرد. خود-توجهی به مدل اجازه میدهد تا هنگام پردازش هر کلمه، اهمیت کلمات مختلف را در دنباله ورودی بسنجد.
- مشابهت: تصور کنید در حال خواندن یک پاراگراف طولانی هستید. همانطور که روی یک کلمه خاص تمرکز میکنید، مغز شما بهطور خودکار به کلمات یا عبارات مرتبط دیگر در آن پاراگراف رجوع میکند تا معنای کامل آن را درک کند. مکانیزم خود-توجهی عملکرد مشابهی را انجام میدهد و بهطور پویا «تمرکز» را روی بخشهای مختلف دنباله ورودی تنظیم میکند. این قابلیت پردازش موازی، بازی را در سرعت و کارایی تغییر داده است.
- پردازش موازی: برخلاف RNNها که اطلاعات را به صورت متوالی پردازش میکنند، ترنسفورمرها میتوانند کل دنبالههای ورودی را به صورت موازی پردازش کنند. این امر زمان آموزش را بهطور قابل توجهی سرعت میبخشد و امکان توسعه مدلهای بسیار بزرگتر روی مجموعهدادههای عظیمتر را فراهم میکند.
- ساختار کدگذار-کدگشا (و فقط کدگشا برای GPTها):
- یک ترنسفورمر کامل معمولاً از یک کدگذار (Encoder) که دنباله ورودی را پردازش میکند و یک کدگشا (Decoder) که دنباله خروجی را تولید میکند، تشکیل شده است.
- با این حال، مدلهایی مانند GPT (ترنسفورمر مولد پیشآموزشدیده) عمدتاً دارای معماریهای فقط کدگشا هستند. این امر آنها را در تولید دنبالههای جدید متن، کلمه به کلمه و بر اساس یک دستور (Prompt) داده شده، بسیار ماهر میکند.
خود اصطلاح "GPT" این ایدههای محوری را در بر میگیرد:
- مولد (Generative): توانایی مدل برای ایجاد متن بدیع، منسجم و مرتبط با متن. این مدل فقط اطلاعات را بازیابی نمیکند؛ بلکه آنها را ترکیب و خلق میکند.
- پیشآموزشدیده (Pre-trained): آموزش اولیه گسترده روی یک مجموعه داده وسیع و متنوع که دانش پایه و درک زبانی گستردهای را قبل از هرگونه تنظیم دقیق وظیفهمحور فراهم میکند.
- ترنسفورمر (Transformer): معماری شبکه عصبی زیربنایی که مدلسازی زبانی کارآمد و در مقیاس بزرگ را به دلیل مکانیزمهای توجه و قابلیتهای پردازش موازی امکانپذیر میسازد.
فراتر از پیشبینی: همسو کردن ChatGPT با قصد انسانی از طریق RLHF
در حالی که پیشآموزش روی مجموعهدادههای عظیم و بهرهگیری از معماری ترنسفورمر، تواناییهای فوقالعادهای در تولید زبان به LLMها میدهد، اما لزوماً تضمین نمیکند که مدل مفید، بیخطر یا همسو با ارزشها و دستورالعملهای انسانی باشد. LLMهای اولیه اغلب خروجیهایی تولید میکردند که:
- از نظر واقعیت نادرست بودند (توهمات/Hallucinations).
- سوگیرانه یا سمی بودند و الگوهای نامطلوب دادههای آموزشی خود را منعکس میکردند.
- تکراری یا بیمعنی بودند.
- قادر به پیروی از دستورالعملهای پیچیده یا شرکت موثر در گفتگوهای چند مرحلهای نبودند.
برای تبدیل یک LLM قدرتمند اما خام به یک عامل محاورهای مانند ChatGPT، شرکت OpenAI یک تکنیک همسوسازی حیاتی را معرفی کرد: یادگیری تقویتی از بازخورد انسانی (RLHF). این فرایند چند مرحلهای، رفتار مدل را برای تطابق بهتر با انتظارات انسانی اصلاح میکند.
فرایند RLHF برای ChatGPT:
-
تنظیم دقیق تحت نظارت (SFT) برای پیروی از دستورالعمل:
- یک مجموعه داده کوچکتر و با کیفیت بالا از جفتهای دستور-پاسخ نوشته شده توسط انسان ایجاد میشود. برچسبگذاران انسانی به عنوان مربیان هوش مصنوعی عمل کرده و نمونههایی از نحوه پاسخگویی مدل به دستورات مختلف را ارائه میدهند.
- این مجموعه داده برای تنظیم دقیق بیشتر مدل GPT پیشآموزشدیده استفاده میشود. هدف این است که به مدل آموزش داده شود تا از دستورالعملها پیروی کرده و پاسخهای مفید را به صورت تحت نظارت تولید کند. این تنظیم دقیق اولیه به مدل کمک میکند تا فرمت و لحن یک گفتگوی مفید را درک کند.
-
آموزش یک مدل پاداش (RM):
- مدل SFT چندین پاسخ متفاوت برای یک دستور خاص تولید میکند.
- سپس برچسبگذاران انسانی این پاسخها را بر اساس معیارهایی مانند مفید بودن، صداقت، بیخطر بودن و انسجام، از بهترین تا بدترین رتبهبندی میکنند.
- این دادههای رتبهبندی شده برای آموزش یک «مدل پاداش» جداگانه استفاده میشوند. وظیفه RM یادگیری ترجیحات انسانی و اختصاص یک امتیاز عددی «پاداش» به هر پاسخ داده شده است که نشاندهنده میزان همسویی آن با قضاوت انسانی است. RM در واقع منتقدی است که یاد گرفته کیفیت متن را ارزیابی کند.
-
یادگیری تقویتی (PPO) برای بهینهسازی سیاست:
- مدل SFT (که اکنون «سیاست» نامیده میشود) با استفاده از یک الگوریتم یادگیری تقویتی، معمولاً بهینهسازی سیاست پروکسیمال (PPO)، بیشتر تنظیم میشود.
- مدل پاسخهایی تولید میکند و مدل پاداش که قبلاً آموزش دیده است، آنها را ارزیابی کرده و یک سیگنال پاداش ارائه میدهد.
- سپس سیاست، پارامترهای داخلی خود را برای به حداکثر رساندن پاداشی که از RM دریافت میکند، تنظیم میکند. این فرایند تکراری به مدل اجازه میدهد یاد بگیرد پاسخهایی تولید کند که به طور فزایندهای توسط انسانها ترجیح داده میشوند. الگوریتم PPO تضمین میکند که این بهروزرسانیها پایدار و کارآمد هستند.
از طریق RLHF، ChatGPT نه تنها یاد میگیرد چه بگوید، بلکه یاد میگیرد چگونه آن را به گونهای بیان کند که جذاب، آموزنده و همسو با ارزشهای انسانی باشد و آن را به یک هوش مصنوعی محاورهای موثر و چندمنظوره تبدیل کند.
تقاطع با کریپتو: همافزاییها و کاربردهای بالقوه
فناوری زیربنایی ChatGPT - به ویژه LLMها، ترنسفورمرها و تکنیکهای همسوسازی - فرصتها و چالشهای قانعکنندهای را برای اکوسیستم رمزارز و بلاکچین ایجاد میکند. با تکامل وب۳ (Web3)، ادغام هوش مصنوعی پیشرفته میتواند کاتالیزوری برای اشکال جدید تعامل، حاکمیت و بهرهوری داده باشد.
۱. ارتقای تجربه کاربری و دسترسی در وب۳
پیچیدگی فناوری بلاکچین اغلب موانع بزرگی برای ورود کاربران جدید ایجاد میکند. LLMها میتوانند به عنوان رابطهای هوشمند عمل کرده و تعامل با اپلیکیشنهای غیرمتمرکز (dApps) و پروتکلهای مختلف وب۳ را ساده کنند.
- رابطهای محاورهای برای dAppها: به جای پیمایش در رابطهای کاربری (UI) پیچیده، کاربران میتوانند با استفاده از زبان طبیعی با dAppها تعامل داشته باشند. یک LLM میتواند قصد کاربر (مثلاً «میخواهم ۱ اتریوم را با دای در یونیسواپ تعویض کنم») را به فراخوانهای خاص قرارداد هوشمند تبدیل کند و DeFi را در دسترستر سازد.
- دستیاران کیف پول: هوش مصنوعی محاورهای در کیف پولهای کریپتو میتواند به کاربران کمک کند تا:
- جزئیات تراکنش و خطرات احتمالی را درک کنند.
- کارمزدهای گس (Gas fees) و ازدحام شبکه را توضیح دهند.
- راهنماییهایی برای مدیریت ایمن کلیدهای خصوصی یا عبارات بازیابی ارائه دهند (با تأکید بر اینکه خودِ هوش مصنوعی هرگز نباید به اطلاعات حساس دسترسی داشته باشد).
- تعاملات پیچیده قراردادهای هوشمند را قبل از تأیید نهایی خلاصه کنند.
- ابزارهای آموزشی: LLMها میتوانند توضیحات آنی درباره مفاهیم کریپتو، مکانیسمهای بلاکچین، توکنومیک و عملکردهای قرارداد هوشمند را متناسب با سطح درک کاربر ارائه دهند. این کار میتواند مانع آموزشی برای پذیرش عمومی را بهطور قابل توجهی کاهش دهد.
۲. هوش مصنوعی غیرمتمرکز و حاکمیت روی زنجیره (On-Chain)
ماهیت متمرکز توسعه فعلی LLMها (مثلاً توسط OpenAI یا گوگل) سوالاتی را در مورد کنترل، سانسور و سوگیری ایجاد میکند. فناوری بلاکچین مسیری به سوی هوش مصنوعی شفافتر و غیرمتمرکزتر ارائه میدهد.
- مدلهای هوش مصنوعی تحت حاکمیت DAO: سازمانهای خودگردان غیرمتمرکز (DAOs) میتوانند بر توسعه، آموزش و استقرار LLMها نظارت کنند. این امر اجازه میدهد تا تصمیمات جامعهمحور در موارد زیر اتخاذ شود:
- کدام مجموعهدادهها برای آموزش استفاده شوند.
- دستورالعملهای اخلاقی و سیاستهای سانسور.
- تخصیص منابع برای تحقیق و توسعه هوش مصنوعی.
- مکانیسمهای پاداش برای مشارکتکنندگان در تلاشهای هوش مصنوعی غیرمتمرکز (مانند برچسبگذاری دادهها یا تنظیم دقیق مدل).
- LLMها در عملیات DAO:
- خلاصهسازی پروپوزالها: LLMها میتوانند پروپوزالهای حاکمیتی طولانی را به خلاصههای قابل فهم تبدیل کنند و به اعضا در تصمیمگیری آگاهانه کمک کنند.
- تسهیل بحثها: هوش مصنوعی میتواند به مدیریت و ترکیب بحثهای پیچیده در دائو کمک کند و اطمینان حاصل کند که همه صداها شنیده شده و نکات کلیدی استخراج میشوند.
- کمک در تدوین قراردادهای هوشمند: ضمن نیاز به نظارت انسانی، LLMها میتوانند در تدوین نسخههای اولیه قراردادهای هوشمند یا شناسایی خطاهای منطقی احتمالی بر اساس مشخصات زبان طبیعی کمک کنند.
۳. تحلیل دادههای بلاکچین و هوشمندی
ماهیت وسیع و شفاف دادههای عمومی بلاکچین، در عین حال که یک نقطه قوت است، میتواند کلافهکننده هم باشد. LLMها میتوانند به استخراج بینشهای معنادار کمک کنند.
- تحلیل روی زنجیره و تشخیص ناهنجاری: LLMها میتوانند حجم عظیمی از دادههای تراکنش را پردازش و خلاصه کنند و الگوهایی را شناسایی کنند که نشاندهنده موارد زیر است:
- جابجاییهای بزرگ سرمایه (حرکات نهنگها).
- روندهای نوظهور در dAppهای خاص.
- فعالیتهای غیرقانونی احتمالی یا اکسپلویتها (با تطبیق الگوهای تراکنش با آسیبپذیریهای شناخته شده).
- تحلیل احساسات بازار: با پردازش فیدهای رسانههای اجتماعی، اخبار کریپتو، انجمنها و بحثهای جامعه، LLMها میتوانند تحلیل احساسات (Sentiment Analysis) در لحظه را برای توکنهای خاص، پروژهها یا کل بازار ارائه دهند و ابزاری پیچیده برای معاملهگران و سرمایهگذاران فراهم کنند.
- امنیت قرارداد هوشمند (حسابرسی کمکی): اگرچه جایگزینی برای حسابرسان انسانی خبره نیستند، اما LLMها میتوانند روی کد قراردادهای هوشمند و آسیبپذیریهای شناخته شده آموزش ببینند. آنها میتوانند:
- نقصهای امنیتی یا خطاهای منطقی احتمالی را در قراردادهای جدید شناسایی کنند.
- بهینهسازیهایی برای بهرهوری گس پیشنهاد دهند.
- کدهای پیچیده سالیدیتی (Solidity) را برای درک بهتر غیربرنامهنویسان به زبان ساده ترجمه کنند. نکته حیاتی این است که خروجیها همیشه نیاز به تایید متخصص انسانی دارند.
۴. تولید محتوا و ارتباطات در وب۳
تقاضا برای محتوای باکیفیت در فضای به سرعت در حال گسترش وب۳ بسیار زیاد است. LLMها ابزارهای قدرتمندی برای خلق محتوا ارائه میدهند.
- وایتپیپرها و مستندات: کمک به پروژهها در تدوین وایتپیپرهای شفاف و جامع، مستندات فنی و راهنماهای کاربری.
- بازاریابی و تعامل با جامعه: تولید پستهای رسانههای اجتماعی، مقالات وبلاگی، سؤالات متداول (FAQ) و محتوای تعاملی برای پروژههای کریپتویی، متناسب با پلتفرمها و مخاطبان مختلف.
- داستانسرایی NFT: خلق روایتهای منحصر به فرد و توضیحات برای توکنهای غیرقابلتعویض (NFTs)، که به داراییهای دیجیتال کلکسیونی عمق و ارزش میبخشد.
۵. هویت، حریم خصوصی و اعتبارنامههای قابل تأیید
LLMها میتوانند در ارتقای درک و تعامل کاربر با سیستمهای هویت غیرمتمرکز (DID) نقش داشته باشند.
- دستیاران مدیریت DID: کمک به کاربران برای درک و مدیریت DIDهای خود، توضیح اعتبارنامههای قابل تأیید و تعامل ایمن با dAppهایی که نیاز به تأیید هویت دارند.
- هوش مصنوعی حفظ حریم خصوصی: تحقیقات در حال بررسی ترکیب LLMها با اثباتهای با دانش صفر (ZKPs) است تا پردازش دادههای خصوصی یا استنتاج مدل بدون افشای اطلاعات حساس زیربنایی امکانپذیر شود و مسیری برای کاربردهای هوش مصنوعی حفظ حریم خصوصی در وب۳ باز شود.
چالشها و ملاحظات هوش مصنوعی در وب۳
علیرغم همافزاییهای امیدوارکننده، ادغام فناوری LLM با بلاکچین با موانع جدی و ملاحظات اخلاقی روبروست.
- ۱. یکپارچگی و تأییدپذیری دادهها: LLMها فقط به اندازه دادههای آموزشی خود خوب هستند. در یک بستر غیرمتمرکز، تضمین منشأ، یکپارچگی و عدم سوگیری در مجموعهدادههای عظیمی که برای آموزش LLMها استفاده میشود، بسیار حیاتی است. چگونه میتوانیم تأیید کنیم که دادهها دستکاری یا فاسد نشدهاند، به خصوص اگر بر تصمیمات مالی یا حاکمیتی حساس تأثیر بگذارند؟
- ۲. توهمات و دقت: LLMها به «توهم زدن» معروف هستند؛ یعنی تولید اطلاعاتی که ظاهر درستی دارند اما از نظر واقعیت غلط هستند. در محیط پرریسک کریپتو، جایی که اطلاعات غلط میتواند منجر به زیانهای مالی سنگین شود، این یک ریسک حیاتی است. مکانیسمهای تأیید قوی و نظارت انسانی همچنان ضروری هستند.
- ۳. هزینه محاسباتی و مقیاسپذیری: آموزش و اجرای LLMهای بزرگ به شدت از نظر محاسباتی سنگین و گران است. ادغام مستقیم چنین مدلهایی روی بلاکچینهای محدود از نظر منابع (که تمرکززدایی و امنیت را بر قدرت محاسباتی خام ترجیح میدهند) عموماً غیرعملی است. راهکارها احتمالاً شامل محاسبات خارج از زنجیره (Off-chain) با تأیید روی زنجیره یا لایههای بلاکچینی تخصصی متمرکز بر هوش مصنوعی خواهد بود.
- ۴. سوگیری و عدالت: LLMها سوگیریهای موجود در دادههای آموزشی خود را به ارث میبرند که میتواند نابرابریهای اجتماعی را تداوم بخشیده یا حتی تقویت کند. اگر این مدلها در سیستمهای تصمیمگیری غیرمتمرکز (مثلاً برای تأیید وام یا تعدیل محتوا در DAOها) ادغام شوند، تضمین عدالت و جلوگیری از خروجیهای تبعیضآمیز یک چالش پیچیده اما حیاتی خواهد بود.
- ۵. امنیت مدلهای هوش مصنوعی: خودِ مدلهای هوش مصنوعی میتوانند هدف حملات تخریبی (Adversarial attacks) قرار گیرند، جایی که تغییرات ظریف در ورودی میتواند منجر به خروجیهای کاملاً اشتباه یا مخرب شود. محافظت از یکپارچگی LLM و اطمینان از اینکه خروجیهای آنها برای مقاصد مخرب دستکاری نمیشوند، در یک بستر مالی بسیار مهم است.
- ۶. حاکمیت اخلاقی هوش مصنوعی: چه کسی این مدلهای قدرتمند هوش مصنوعی را کنترل میکند و چه کسی مسئول اعمال آنهاست؟ حاکمیت غیرمتمرکز از طریق DAOها جایگزینی شفاف و جامعهمحور برای کنترل متمرکز ارائه میدهد و اجازه تصمیمگیری جمعی درباره دستورالعملهای اخلاقی، بهروزرسانیهای مدل و مقاومت در برابر سانسور را میدهد. با این حال، ایجاد مکانیسمهای حاکمیتی موثر و عادلانه برای هوش مصنوعی پیچیده، یک چالش مداوم است.
راه پیش رو: تکامل همگرایی هوش مصنوعی و بلاکچین
همگرایی مدلهای پیچیده هوش مصنوعی مانند ChatGPT با اصول فناوری بلاکچین هنوز در مراحل ابتدایی خود است. با این حال، پتانسیل ایجاد یک اینترنت هوشمندتر، در دسترستر و غیرمتمرکزتر، عظیم است. تحقیق و توسعه مداوم بر موارد زیر تمرکز خواهد داشت:
- کارایی و بهینهسازی: توسعه LLMهای کوچکتر و کارآمدتر یا مدلهای تخصصی که بتوانند بهطور موثر در محدودیتهای شبکههای غیرمتمرکز فعالیت کنند.
- تعاملپذیری (Interoperability): ایجاد پروتکلها و استانداردهای یکپارچه برای خدمات هوش مصنوعی جهت تعامل با زیرساختهای بلاکچین و تسهیل محاسبات هوش مصنوعی قابل اعتماد.
- نوآوری جامعهمحور: بهرهگیری از روحیه متنباز (Open-source) جامعه کریپتو برای ساخت، آموزش و حاکمیت مشارکتی مدلهای هوش مصنوعی، تقویت شفافیت و کنترل دموکراتیک.
با بلوغ هر دو حوزه، رابطه همزیستی بین هوش مصنوعی پیشرفته - که در فناوریهای محوری ChatGPT تجلی یافته است - و چشمانداز غیرمتمرکز وب۳، آماده است تا امکانات بیسابقهای را باز کند و اساساً نحوه تعامل ما با داراییهای دیجیتال، اطلاعات و یکدیگر را تغییر دهد.