ترس OpenAI از ساخته جدیدش؟

ایا ترس OpenAI از ساخته جدیدش باعث تاخییر است؟

OpenAI انتشار مدل هوش مصنوعی متن‌باز مورد انتظار خود را به دلیل نیاز به «تست‌های ایمنی بیشتر» و نگرانی‌های لحظه آخری در مورد «حوزه‌های پرخطر» به تعویق انداخت. سام آلتمن، مدیرعامل OpenAI، این خبر را در X (توییتر سابق) اعلام کرد. این تصمیم در بحبوحه رقابت تسلیحاتی بی‌رحمانه هوش مصنوعی، به ویژه با متا، که به طور تهاجمی استعدادهای OpenAI را جذب و از مدل‌های متن‌باز مانند Llama 3 حمایت می‌کند، گرفته شده است.

این مدل که قرار بود این هفته منتشر شود، اولین سیستم متن‌باز بزرگ OpenAI خواهد بود، به این معنی که توسعه‌دهندگان میتوانند آزادانه کد زیربنایی و وزنه‌های داده مدل را برای ساخت برنامه‌ها، پروژه‌های تحقیقاتی یا ابزارهای تجاری خود دانلود و استفاده کند. اما همانطور که آلتمن اشاره کرد، هنگامی که این مدل‌ها منتشر شوند، «دیگر نمی‌توان آنها را پس گرفت.»

این ماهیت متن‌باز است و دقیقاً به همین دلیل است که این تأخیر باعث ایجاد تردید در سراسر جامعه هوش مصنوعی شده است. آلتمن در X (توییتر سابق) در 21 تیر 1404 نوشت: «در حالی که ما اطمینان داریم که جامعه با این مدل چیزهای بزرگی خواهد ساخت، هنگامی که وزنه‌ها خارج شوند، دیگر نمی‌توان آنها را پس گرفت.» «این برای ما تازگی دارد و می‌خواهیم آن را درست انجام دهیم.»

در هوش مصنوعی، «وزنه‌ها» میلیون‌ها مقدار عددی هستند که مانند سیم‌کشی مغز مدل عمل میکنند و به آن اجازه میدهند ارتباط برقرار کرده و تصمیم‌گیری کند. هنگامی که یک شرکت مدلی را به عنوان «متن‌باز» منتشر می‌کند، فقط یک طرح کلی را به اشتراک نمی‌گذارد؛ بلکه مغز کاملاً کاربردی را به طور کامل در اختیار دیگران قرار میدهد. توسعه‌دهندگان میتوانند آن را دانلود، تغییر و از آن برای ساخت هر چیزی، از چت‌بات‌ها و ابزارهای بهره‌وری گرفته تا ایجاد دیپ‌فیک‌ها و سایر برنامه‌های مخرب، استفاده کند.

متن‌باز کردن مدل‌ها نوآوری را تسریع می‌کند، اما خطر سوء استفاده، اطلاعات نادرست و ورژن‌های سفارشی غیرقابل ردیابی را نیز افزایش میدهد. به همین دلیل است که تصمیم به تعویق انداختن، در حالی که برای بسیاری ناامیدکننده است، نشان میدهد که OpenAI سعی میکند با احتیاط گام بردارد، به ویژه با تشدید انتقادات پیرامون ایمنی هوش مصنوعی و «نشت مدل».

ترس OpenAI از ساخته جدیدش؟

شایعاتی در مورد دلیل واقعی تأخیر

طبق گمانه‌زنی‌های توسعه‌دهندگان آنلاین، این تأخیر ممکن است ناشی از یک مشکل فنی بزرگ باشد که درست قبل از انتشار کشف شده است. انتظار می‌رفت مدل شایعه‌شده از Kimi K2 کوچکتر باشد—مدل متن‌باز جدید استارت‌آپ هوش مصنوعی چینی Moonshot AI که طبق گزارش‌ها نزدیک به یک تریلیون پارامتر دارد—اما به گفته آزمایش‌کنندگان اولیه، همچنان «فوق‌العاده قدرتمند» است. Kimi K2، که با قابلیت‌های کدنویسی چشمگیر و قیمت پایین‌تر، ChatGPT را به چالش می‌کشد، در 21 تیر 1404، همزمان با اعلامیه آلتمن، منتشر شد.

در حالی که برخی از گمانه‌زنان آنلاین این تأخیر را به عملکرد غیرمنتظره قوی Kimi و ترس از تحت‌الشعاع قرار گرفتن نسبت دادند، هیچ تأییدیه‌ای از سوی OpenAI در این مورد وجود ندارد. آنچه واضح است این است که این شرکت برای ارائه چیزی که ایمن، سریع و رقابتی باشد، تحت فشار است.

نقش متا در تأخیر مدل هوش مصنوعی OpenAI

شرکت مارک زاکربرگ به طور فزاینده‌ای مدل‌های متن‌باز قدرتمندی مانند Llama 3 را منتشر کرده است، در حالی که به طور بی‌سروصدا محققان برتر OpenAI را استخدام میکند. جنگ استعدادیابی واقعی است و بر جدول زمانی و استراتژی در سراسر هیئت مدیره تأثیر میگذارد.

OpenAI با به تعویق انداختن این انتشار، ممکن است امیدوار باشد از یک عرضه ناقص که میتواند به اعتبار آن در یک لحظه بحرانی آسیب برساند، جلوگیری کند. اما همچنین خطر عقب ماندن بیشتر از متا را دارد، که در حال حاضر به پلتفرم اصلی برای توسعه‌دهندگانی تبدیل شده است که به دنبال ساخت ابزارهای هوش مصنوعی شفاف و قابل تغییر هستند.

آینده مدل هوش مصنوعی OpenAI

OpenAI جدول زمانی جدیدی برای انتشار ارائه نکرده است. این سکوت به گمانه‌زنی‌ها دامن می‌زند که این تأخیر ممکن است هفته‌ها به طول انجامد. اگر آموزش مجدد واقعاً مطرح باشد، ممکن است عرضه را به پاییز نزدیک‌تر کند.

در حال حاضر، جامعه متن‌باز در حالت انتظار و تماشا قرار دارد. و سوالی که بر همه چیز سایه افکنده است: آیا OpenAI میتواند مدلی ارائه دهد که به اندازه کافی قدرتمند، ایمن و رقابتی باشد تا با حرکت متا مطابقت داشته باشد و رقبای چینی را مهار کند؟ به عبارت دیگر، آیا آنها میتوانند قبل از اینکه شخص دیگری این کار را انجام دهد، آن را درست انجام دهند؟