هوش مصنوعی و درک پیامدهای عملکرد
هوش مصنوعی به سرعت در حال پیشرفت است و به سمتی میرود که میتواند به جای ما کارهای واقعی انجام دهد (پیام دادن، خرید کردن، تغییر تنظیمات حساب و غیره). یک مطالعه جدید که با همکاری اپل انجام شده، به این موضوع میپردازد که این سیستمها تا چه حد واقعاً پیامدهای اقدامات خود را درک میکنند. در اینجا یافتههای آنها را بررسی میکنیم.
این مقاله که اخیراً در کنفرانس ACM در ایتالیا ارائه شده، با عنوان «از تعامل تا تأثیر: به سوی عوامل هوش مصنوعی ایمنتر از طریق درک و ارزیابی تأثیرات عملکرد رابط کاربری موبایل» یک چارچوب دقیق برای درک آنچه ممکن است هنگام تعامل یک عامل هوش مصنوعی با یک رابط کاربری موبایل رخ دهد، معرفی میکند.
نکته جالب در مورد این مطالعه این است که فقط بررسی نمیکند که آیا عوامل هوش مصنوعی میتوانند روی دکمه مناسب ضربه بزنند یا خیر، بلکه بررسی میکند که آیا آنها قادر به پیشبینی پیامدهای احتمالی پس از ضربه زدن هستند و آیا باید ادامه دهند.
به گفته محققان: «در حالی که تحقیقات قبلی مکانیسمهای نحوه پیمایش عوامل هوش مصنوعی در رابطهای کاربری و درک ساختار رابط کاربری را بررسی کردهاند، اثرات عوامل و اقدامات خودمختار آنها، به ویژه مواردی که ممکن است خطرناک یا غیرقابل برگشت باشند، هنوز به اندازه کافی مورد بررسی قرار نگرفتهاند. در این مقاله، ما اثرات و پیامدهای واقعی اقدامات رابط کاربری موبایل که توسط عوامل هوش مصنوعی انجام میشود را بررسی میکنیم.»
مقولهبندی تعاملات پرخطر
فرض اصلی این مطالعه این است که اکثر مجموعهدادهها برای آموزش عوامل رابط کاربری امروزی از موارد نسبتاً بیضرر تشکیل شدهاند: مرور یک فید، باز کردن یک برنامه، پیمایش در گزینهها. بنابراین، این مطالعه در نظر دارد چند قدم جلوتر برود.
در این مطالعه، شرکتکنندگان استخدامشده وظیفه داشتند از برنامههای تلفن همراه واقعی استفاده کنند و اقداماتی را ثبت کنند که اگر توسط یک هوش مصنوعی بدون اجازه آنها انجام شود، احساس ناراحتی کنند. مواردی مانند ارسال پیام، تغییر رمز عبور، ویرایش جزئیات نمایه یا انجام تراکنشهای مالی.
این اقدامات سپس با استفاده از یک چارچوب جدید توسعهیافته برچسبگذاری شدند که نه تنها تأثیر فوری بر رابط را در نظر میگیرد، بلکه عواملی مانند:
- قصد کاربر: کاربر سعی در انجام چه کاری دارد؟ آیا اطلاعاتی، معاملاتی، ارتباطی یا فقط ناوبری اساسی است؟
- تأثیر بر رابط کاربری: آیا این عمل نحوه ظاهر رابط، آنچه نشان میدهد یا جایی که شما را میبرد را تغییر میدهد؟
- تأثیر بر کاربر: آیا میتواند بر حریم خصوصی، دادهها، رفتار یا داراییهای دیجیتال کاربر تأثیر بگذارد؟
- قابلیت برگشتپذیری: اگر مشکلی پیش بیاید، آیا میتوان آن را به راحتی برطرف کرد؟ یا اصلاً امکانپذیر نیست؟
- تکرار: آیا این کاری است که معمولاً هر از گاهی انجام میشود یا بارها و بارها تکرار میشود؟
نتیجه یک چارچوب است که به محققان کمک میکند تا ارزیابی کنند که آیا مدلها مواردی مانند: «آیا میتوان این کار را با یک ضربه لغو کرد؟»، «آیا به شخص دیگری هشدار میدهد؟»، «آیا ردی از خود به جای میگذارد؟» را در نظر میگیرند و قبل از اقدام از طرف کاربر، آن را در نظر میگیرند.
آزمایش قضاوت هوش مصنوعی
هنگامی که مجموعه داده ساخته شد، تیم آن را از طریق پنج مدل زبان بزرگ، از جمله GPT-4، جمنای و Ferret-UI خود اپل، اجرا کرد تا ببیند چقدر میتوانند تأثیر هر عمل را طبقهبندی کنند.
نتیجه؟ Google Gemini در تستهای به اصطلاح zero-shot (با دقت 56٪) عملکرد بهتری داشت، که میزان توانایی یک هوش مصنوعی در انجام کارهایی که به طور صریح برای آن آموزش ندیده است را اندازهگیری میکند. در همین حال، نسخه چندوجهی GPT-4 با استفاده از تکنیکهای زنجیره تفکر، هنگام درخواست استدلال گام به گام، در ارزیابی تأثیرات پیشتاز بود (با دقت 58٪).
از آنجایی که دستیارهای صوتی و عوامل هوش مصنوعی در پیروی از دستورات زبان طبیعی («برای من یک پرواز رزرو کن»، «آن اشتراک را لغو کن» و غیره) بهتر میشوند، چالش ایمنی واقعی این است که عاملی داشته باشیم که بداند چه زمانی درخواست تأیید کند یا حتی چه زمانی اصلاً اقدامی نکند.
این مطالعه هنوز این مشکل را حل نکرده است، اما یک معیار قابل اندازهگیری برای آزمایش میزان درک مدلها از خطرات اقداماتشان ارائه میدهد.
و در حالی که تحقیقات زیادی در مورد همسویی وجود دارد، که حوزه گستردهتری از ایمنی هوش مصنوعی است که به اطمینان از انجام کارهایی است که انسانها واقعاً میخواهند، تحقیقات اپل بعد جدیدی را اضافه میکند. این موضوع این سوال را مطرح میکند که عوامل هوش مصنوعی چقدر در پیشبینی نتایج اقدامات خود خوب هستند و قبل از اقدام با آن اطلاعات چه میکنند.


پاسخگوی سوالات شما هستیم
دیدگاهی وجود ندارد!