آنچه خواهید خواند
ایا ترس OpenAI از ساخته جدیدش باعث تاخییر است؟
OpenAI انتشار مدل هوش مصنوعی متنباز مورد انتظار خود را به دلیل نیاز به «تستهای ایمنی بیشتر» و نگرانیهای لحظه آخری در مورد «حوزههای پرخطر» به تعویق انداخت. سام آلتمن، مدیرعامل OpenAI، این خبر را در X (توییتر سابق) اعلام کرد. این تصمیم در بحبوحه رقابت تسلیحاتی بیرحمانه هوش مصنوعی، به ویژه با متا، که به طور تهاجمی استعدادهای OpenAI را جذب و از مدلهای متنباز مانند Llama 3 حمایت میکند، گرفته شده است.
این مدل که قرار بود این هفته منتشر شود، اولین سیستم متنباز بزرگ OpenAI خواهد بود، به این معنی که توسعهدهندگان میتوانند آزادانه کد زیربنایی و وزنههای داده مدل را برای ساخت برنامهها، پروژههای تحقیقاتی یا ابزارهای تجاری خود دانلود و استفاده کند. اما همانطور که آلتمن اشاره کرد، هنگامی که این مدلها منتشر شوند، «دیگر نمیتوان آنها را پس گرفت.»
این ماهیت متنباز است و دقیقاً به همین دلیل است که این تأخیر باعث ایجاد تردید در سراسر جامعه هوش مصنوعی شده است. آلتمن در X (توییتر سابق) در 21 تیر 1404 نوشت: «در حالی که ما اطمینان داریم که جامعه با این مدل چیزهای بزرگی خواهد ساخت، هنگامی که وزنهها خارج شوند، دیگر نمیتوان آنها را پس گرفت.» «این برای ما تازگی دارد و میخواهیم آن را درست انجام دهیم.»
در هوش مصنوعی، «وزنهها» میلیونها مقدار عددی هستند که مانند سیمکشی مغز مدل عمل میکنند و به آن اجازه میدهند ارتباط برقرار کرده و تصمیمگیری کند. هنگامی که یک شرکت مدلی را به عنوان «متنباز» منتشر میکند، فقط یک طرح کلی را به اشتراک نمیگذارد؛ بلکه مغز کاملاً کاربردی را به طور کامل در اختیار دیگران قرار میدهد. توسعهدهندگان میتوانند آن را دانلود، تغییر و از آن برای ساخت هر چیزی، از چتباتها و ابزارهای بهرهوری گرفته تا ایجاد دیپفیکها و سایر برنامههای مخرب، استفاده کند.
متنباز کردن مدلها نوآوری را تسریع میکند، اما خطر سوء استفاده، اطلاعات نادرست و ورژنهای سفارشی غیرقابل ردیابی را نیز افزایش میدهد. به همین دلیل است که تصمیم به تعویق انداختن، در حالی که برای بسیاری ناامیدکننده است، نشان میدهد که OpenAI سعی میکند با احتیاط گام بردارد، به ویژه با تشدید انتقادات پیرامون ایمنی هوش مصنوعی و «نشت مدل».
شایعاتی در مورد دلیل واقعی تأخیر
طبق گمانهزنیهای توسعهدهندگان آنلاین، این تأخیر ممکن است ناشی از یک مشکل فنی بزرگ باشد که درست قبل از انتشار کشف شده است. انتظار میرفت مدل شایعهشده از Kimi K2 کوچکتر باشد—مدل متنباز جدید استارتآپ هوش مصنوعی چینی Moonshot AI که طبق گزارشها نزدیک به یک تریلیون پارامتر دارد—اما به گفته آزمایشکنندگان اولیه، همچنان «فوقالعاده قدرتمند» است. Kimi K2، که با قابلیتهای کدنویسی چشمگیر و قیمت پایینتر، ChatGPT را به چالش میکشد، در 21 تیر 1404، همزمان با اعلامیه آلتمن، منتشر شد.
در حالی که برخی از گمانهزنان آنلاین این تأخیر را به عملکرد غیرمنتظره قوی Kimi و ترس از تحتالشعاع قرار گرفتن نسبت دادند، هیچ تأییدیهای از سوی OpenAI در این مورد وجود ندارد. آنچه واضح است این است که این شرکت برای ارائه چیزی که ایمن، سریع و رقابتی باشد، تحت فشار است.
نقش متا در تأخیر مدل هوش مصنوعی OpenAI
شرکت مارک زاکربرگ به طور فزایندهای مدلهای متنباز قدرتمندی مانند Llama 3 را منتشر کرده است، در حالی که به طور بیسروصدا محققان برتر OpenAI را استخدام میکند. جنگ استعدادیابی واقعی است و بر جدول زمانی و استراتژی در سراسر هیئت مدیره تأثیر میگذارد.
OpenAI با به تعویق انداختن این انتشار، ممکن است امیدوار باشد از یک عرضه ناقص که میتواند به اعتبار آن در یک لحظه بحرانی آسیب برساند، جلوگیری کند. اما همچنین خطر عقب ماندن بیشتر از متا را دارد، که در حال حاضر به پلتفرم اصلی برای توسعهدهندگانی تبدیل شده است که به دنبال ساخت ابزارهای هوش مصنوعی شفاف و قابل تغییر هستند.
آینده مدل هوش مصنوعی OpenAI
OpenAI جدول زمانی جدیدی برای انتشار ارائه نکرده است. این سکوت به گمانهزنیها دامن میزند که این تأخیر ممکن است هفتهها به طول انجامد. اگر آموزش مجدد واقعاً مطرح باشد، ممکن است عرضه را به پاییز نزدیکتر کند.
در حال حاضر، جامعه متنباز در حالت انتظار و تماشا قرار دارد. و سوالی که بر همه چیز سایه افکنده است: آیا OpenAI میتواند مدلی ارائه دهد که به اندازه کافی قدرتمند، ایمن و رقابتی باشد تا با حرکت متا مطابقت داشته باشد و رقبای چینی را مهار کند؟ به عبارت دیگر، آیا آنها میتوانند قبل از اینکه شخص دیگری این کار را انجام دهد، آن را درست انجام دهند؟


پاسخگوی سوالات شما هستیم
دیدگاهی وجود ندارد!