هوش مصنوعی: بررسی پیامدهای عملکرد آن

هوش مصنوعی و درک پیامدهای عملکرد

هوش مصنوعی به سرعت در حال پیشرفت است و به سمتی میرود که میتواند به جای ما کارهای واقعی انجام دهد (پیام دادن، خرید کردن، تغییر تنظیمات حساب و غیره). یک مطالعه جدید که با همکاری اپل انجام شده، به این موضوع میپردازد که این سیستم‌ها تا چه حد واقعاً پیامدهای اقدامات خود را درک میکنند. در اینجا یافته‌های آن‌ها را بررسی میکنیم.

این مقاله که اخیراً در کنفرانس ACM در ایتالیا ارائه شده، با عنوان «از تعامل تا تأثیر: به سوی عوامل هوش مصنوعی ایمن‌تر از طریق درک و ارزیابی تأثیرات عملکرد رابط کاربری موبایل» یک چارچوب دقیق برای درک آنچه ممکن است هنگام تعامل یک عامل هوش مصنوعی با یک رابط کاربری موبایل رخ دهد، معرفی میکند.

نکته جالب در مورد این مطالعه این است که فقط بررسی نمیکند که آیا عوامل هوش مصنوعی میتوانند روی دکمه مناسب ضربه بزنند یا خیر، بلکه بررسی میکند که آیا آن‌ها قادر به پیش‌بینی پیامدهای احتمالی پس از ضربه زدن هستند و آیا باید ادامه دهند.

به گفته محققان: «در حالی که تحقیقات قبلی مکانیسم‌های نحوه پیمایش عوامل هوش مصنوعی در رابط‌های کاربری و درک ساختار رابط کاربری را بررسی کرده‌اند، اثرات عوامل و اقدامات خودمختار آن‌ها، به ویژه مواردی که ممکن است خطرناک یا غیرقابل برگشت باشند، هنوز به اندازه کافی مورد بررسی قرار نگرفته‌اند. در این مقاله، ما اثرات و پیامدهای واقعی اقدامات رابط کاربری موبایل که توسط عوامل هوش مصنوعی انجام میشود را بررسی میکنیم.»

مقوله‌بندی تعاملات پرخطر

فرض اصلی این مطالعه این است که اکثر مجموعه‌داده‌ها برای آموزش عوامل رابط کاربری امروزی از موارد نسبتاً بی‌ضرر تشکیل شده‌اند: مرور یک فید، باز کردن یک برنامه، پیمایش در گزینه‌ها. بنابراین، این مطالعه در نظر دارد چند قدم جلوتر برود.

در این مطالعه، شرکت‌کنندگان استخدام‌شده وظیفه داشتند از برنامه‌های تلفن همراه واقعی استفاده کنند و اقداماتی را ثبت کنند که اگر توسط یک هوش مصنوعی بدون اجازه آن‌ها انجام شود، احساس ناراحتی کنند. مواردی مانند ارسال پیام، تغییر رمز عبور، ویرایش جزئیات نمایه یا انجام تراکنش‌های مالی.

این اقدامات سپس با استفاده از یک چارچوب جدید توسعه‌یافته برچسب‌گذاری شدند که نه تنها تأثیر فوری بر رابط را در نظر میگیرد، بلکه عواملی مانند:

  • قصد کاربر: کاربر سعی در انجام چه کاری دارد؟ آیا اطلاعاتی، معاملاتی، ارتباطی یا فقط ناوبری اساسی است؟
  • تأثیر بر رابط کاربری: آیا این عمل نحوه ظاهر رابط، آنچه نشان میدهد یا جایی که شما را میبرد را تغییر میدهد؟
  • تأثیر بر کاربر: آیا میتواند بر حریم خصوصی، داده‌ها، رفتار یا دارایی‌های دیجیتال کاربر تأثیر بگذارد؟
  • قابلیت برگشت‌پذیری: اگر مشکلی پیش بیاید، آیا میتوان آن را به راحتی برطرف کرد؟ یا اصلاً امکان‌پذیر نیست؟
  • تکرار: آیا این کاری است که معمولاً هر از گاهی انجام میشود یا بارها و بارها تکرار میشود؟

نتیجه یک چارچوب است که به محققان کمک میکند تا ارزیابی کنند که آیا مدل‌ها مواردی مانند: «آیا میتوان این کار را با یک ضربه لغو کرد؟»، «آیا به شخص دیگری هشدار میدهد؟»، «آیا ردی از خود به جای میگذارد؟» را در نظر میگیرند و قبل از اقدام از طرف کاربر، آن را در نظر میگیرند.

آزمایش قضاوت هوش مصنوعی

هنگامی که مجموعه داده ساخته شد، تیم آن را از طریق پنج مدل زبان بزرگ، از جمله GPT-4، جمنای و Ferret-UI خود اپل، اجرا کرد تا ببیند چقدر میتوانند تأثیر هر عمل را طبقه‌بندی کنند.

نتیجه؟ Google Gemini در تست‌های به اصطلاح zero-shot (با دقت 56٪) عملکرد بهتری داشت، که میزان توانایی یک هوش مصنوعی در انجام کارهایی که به طور صریح برای آن آموزش ندیده است را اندازه‌گیری میکند. در همین حال، نسخه چندوجهی GPT-4 با استفاده از تکنیک‌های زنجیره تفکر، هنگام درخواست استدلال گام به گام، در ارزیابی تأثیرات پیشتاز بود (با دقت 58٪).

از آنجایی که دستیارهای صوتی و عوامل هوش مصنوعی در پیروی از دستورات زبان طبیعی («برای من یک پرواز رزرو کن»، «آن اشتراک را لغو کن» و غیره) بهتر میشوند، چالش ایمنی واقعی این است که عاملی داشته باشیم که بداند چه زمانی درخواست تأیید کند یا حتی چه زمانی اصلاً اقدامی نکند.

این مطالعه هنوز این مشکل را حل نکرده است، اما یک معیار قابل اندازه‌گیری برای آزمایش میزان درک مدل‌ها از خطرات اقداماتشان ارائه میدهد.

و در حالی که تحقیقات زیادی در مورد همسویی وجود دارد، که حوزه گسترده‌تری از ایمنی هوش مصنوعی است که به اطمینان از انجام کارهایی است که انسان‌ها واقعاً میخواهند، تحقیقات اپل بعد جدیدی را اضافه میکند. این موضوع این سوال را مطرح میکند که عوامل هوش مصنوعی چقدر در پیش‌بینی نتایج اقدامات خود خوب هستند و قبل از اقدام با آن اطلاعات چه میکنند.