آیا اخلاقیات توسط هوش مصنوعی قابل یادگیری است

تحقیق جدید در زمینه اخلاق هوش مصنوعی

این روزها بسیار میشنویم که آیا اخلاقیات توسط هوش مصنوعی قابل یادگیری است؟ OpenAI به تازگی به تحقیقاتی در زمینه اخلاق هوش مصنوعی کمک مالی کرده است. هدف این تحقیقات، توسعه الگوریتم‌هایی است که بتوانند قضاوت‌های اخلاقی انسان را پیش‌بینی کنند. سخنگوی OpenAI در پاسخ به سوالات رسانه‌ها اشاره کرده که این کمک مالی بخشی از یک پروژه سه ساله به ارزش یک میلیون دلار است که هدف آن توسعه هوش مصنوعی اخلاق‌مدار است.

جزئیات زیادی از این پروژه اخلاقی که توسط OpenAI حمایت میشود، منتشر نشده است، به جز اینکه این کمک مالی تا سال 2025 ادامه دارد. والتر سینوت-آرمسترانگ، استاد اخلاق عملی در دانشگاه دوک و مسئول این تحقیق، در پاسخ به سوالی اعلام کرده که در حال حاضر نمیتواند درباره این پروژه صحبت کند.

آیا اخلاقیات توسط هوش مصنوعی قابل یادگیری است

کمک هوش مصنوعی به انسان‌ها

آرمسترانگ و همکارش، یانا بورگ، در گذشته تحقیقات متعددی انجام داده‌اند و کتابی درباره پتانسیل هوش مصنوعی به عنوان یک GPS اخلاقی منتشر کرده‌اند. این تحقیقات به بررسی چگونگی کمک هوش مصنوعی به انسان‌ها برای اتخاذ تصمیمات بهتر پرداخته‌اند. آنها همچنین الگوریتمی اخلاق‌مدار برای تصمیم‌گیری در تخصیص اهداهای کلیه طراحی کرده و بررسی کرده‌اند که در چه شرایطی مردم ترجیح میدهند هوش مصنوعی تصمیمات اخلاقی بگیرد.

بر اساس بیانیه رسمی منتشر شده، هدف اصلی این پروژه که توسط OpenAI حمایت مالی شده است، آموزش الگوریتم‌ها برای پیش‌بینی قضاوت‌های اخلاقی انسان در سناریوهایی است که در آن تضادهایی میان ویژگی‌های اخلاقی مرتبط در زمینه‌هایی مانند پزشکی، حقوق و تجارت وجود دارد. با این حال، هنوز مشخص نیست که مفهومی پیچیده و ظریف مانند اخلاق، با فناوری‌های امروزی قابل دست‌یابی باشد.

به عنوان مثال، در سال 2021، موسسه غیرانتفاعی Allen برای هوش مصنوعی ابزاری به نام Ask Delphi طراحی کرد که هدف آن ارائه توصیه‌های اخلاقی مناسب بود. این ابزار توانست در حل معضلات اخلاقی ساده موفق عمل کند، اما تغییر جزئی در فرم سوالات باعث میشد که این ابزار پاسخ‌های نادرست یا حتی غیراخلاقی ارائه دهد، از جمله تایید اقداماتی به شدت غیرقابل قبول مانند خفه کردن نوزادان!

این موضوع نشان میدهد که ایجاد هوش مصنوعی با درک اخلاق انسانی همچنان با چالش‌های جدی مواجه است. دلیل این چالش به نحوه عملکرد سیستم‌های هوش مصنوعی مدرن بازمیگردد.

آیا اخلاقیات توسط هوش مصنوعی قابل یادگیری است

مدل‌های یادگیری ماشینی

مدل‌های یادگیری ماشینی در واقع ماشین‌های آماری هستند. این مدل‌ها با استفاده از حجم عظیمی از داده‌های موجود در وب آموزش میبینند و الگوهای موجود در این داده‌ها را برای انجام پیش‌بینی‌ها شناسایی میکنند. اما هوش مصنوعی هیچ درک واقعی از مفاهیم اخلاقی ندارد و نمیتواند منطق و احساساتی را که در تصمیم‌گیری‌های اخلاقی دخیل هستند، درک کند.

به همین دلیل، هوش مصنوعی معمولاً ارزش‌های جوامع غربی، صنعتی و تحصیل‌کرده را منعکس میکند، چرا که داده‌های آموزشی این مدل‌ها عمدتاً از مقالات و محتوایی گرفته شده که این دیدگاه‌ها را نمایندگی میکنند. در نتیجه، بسیاری از ارزش‌های انسانی در پاسخ‌های هوش مصنوعی منعکس نمیشوند، به ویژه اگر این ارزش‌ها از سوی افرادی باشد که در مجموعه داده‌های آموزشی این هوش مصنوعی حضور ندارند، یعنی کسانی که به طور فعال محتوایی در فضای آنلاین منتشر نمیکنند.

چالشی که پیش روی OpenAI و پژوهشگرانی که از آن حمایت میکند قرار دارد، به دلیل ماهیت ذهنی و سلیقه‌ای اخلاق، پیچیده‌تر هم میشود. هزاران سال است که فیلسوفان درباره مزایا و معایب نظریه‌های اخلاقی مختلف بحث میکنند و تاکنون هیچ چارچوب جهانی و یکسانی ارائه نشده است.

برای مثال، کلود (Claude) به اخلاقیات و قوانین اخلاقی مطلق تمایل و تمرکز دارد، در حالی که ChatGPT اندکی گرایش به نظریه فایده‌گرایی دارد که به دنبال بیشترین سود برای بیشترین تعداد افراد است. اما کدام یک برتر است؟ پاسخ این سؤال بستگی به دیدگاه شخصی دارد. یک الگوریتم برای پیش‌بینی قضاوت‌های اخلاقی انسان باید تمامی این عوامل را در نظر بگیرد. این یک استاندارد بسیار بالا است، البته اگر چنین الگوریتمی اصولاً امکان‌پذیر باشد.

آیا اخلاقیات توسط هوش مصنوعی قابل یادگیری است

توسعه اخلاق هوش مصنوعی در صنایع مختلف

توسعه اخلاق در هوش مصنوعی نه تنها در حوزه‌های پزشکی، حقوق و تجارت، بلکه در صنعت صدا و سیستم‌های صوتی نیز میتواند کاربردهای قابل توجهی داشته باشد. برای مثال، در طراحی سیستم‌های صوتی هوشمند، انواع اسپیکر و هدفون‌ که از هوش مصنوعی برای شخصی‌سازی تجربه شنیداری استفاده میکنند، وجود الگوریتم‌های اخلاق‌مدار میتواند به بهبود تعاملات انسان و فناوری کمک کند.

یک نمونه بارز میتواند سیستم‌های صوتی هوشمند باشد که از دستیارهای صوتی بهره میبرند. این دستیارها نیاز دارند تا نه تنها دستورات صوتی افراد را درک کنند، بلکه تصمیماتی اخلاقی در پاسخگویی به نیازهای مختلف بگیرند. برای مثال، یک اسپیکر هوشمند که قابلیت تشخیص محتوا را دارد، باید بتواند میان محتوای مناسب برای کودکان و بزرگسالان تمایز قائل شود. یا انواع هدفون‌ هوشمند میتوانند بر اساس شرایط محیطی، مانند تشخیص خطرات صوتی، تصمیمات اخلاقی برای محافظت از فرد اتخاذ کنند.

آیا اخلاقیات توسط هوش مصنوعی قابل یادگیری است

کلام آخر

تحقیقات در زمینه اخلاق هوش مصنوعی، هرچند امیدوارکننده، با چالش‌های پیچیده و بنیادی همراه است. مفاهیم اخلاقی عمیقاً به بافت فرهنگی، اجتماعی و فردی وابسته‌اند و هوش مصنوعی، به عنوان یک سیستم آماری، فاقد درک واقعی از این مفاهیم است. تلاش‌هایی مانند پروژه OpenAI گامی مهم در جهت پرکردن این شکاف هستند، اما پیچیدگی‌های اخلاق، ذهنیت‌محوری آن و نبود چارچوب جهانی واحد، این مسیر را دشوار میسازد.

اگرچه الگوریتم‌هایی که بتوانند قضاوت‌های اخلاقی انسان را پیش‌بینی کنند میتوانند در زمینه‌هایی مانند پزشکی، حقوق و تجارت کمک‌کننده باشند، همچنان باید با احتیاط به نتایج آن‌ها نگاه کرد. توسعه چنین سیستم‌هایی نه‌تنها به پیشرفت‌های تکنولوژیکی، بلکه به مشارکت گسترده‌تری از فرهنگ‌ها و جوامع متنوع نیاز دارد تا اطمینان حاصل شود که ارزش‌های انسانی به طور جامع و عادلانه منعکس میشوند. اخلاق هوش مصنوعی باید بازتابی از بشریت باشد، نه صرفاً بازتاب داده‌هایی که به آن وارد شده‌اند.