تحقیق جدید در زمینه اخلاق هوش مصنوعی
این روزها بسیار میشنویم که آیا اخلاقیات توسط هوش مصنوعی قابل یادگیری است؟ OpenAI به تازگی به تحقیقاتی در زمینه اخلاق هوش مصنوعی کمک مالی کرده است. هدف این تحقیقات، توسعه الگوریتمهایی است که بتوانند قضاوتهای اخلاقی انسان را پیشبینی کنند. سخنگوی OpenAI در پاسخ به سوالات رسانهها اشاره کرده که این کمک مالی بخشی از یک پروژه سه ساله به ارزش یک میلیون دلار است که هدف آن توسعه هوش مصنوعی اخلاقمدار است.
جزئیات زیادی از این پروژه اخلاقی که توسط OpenAI حمایت میشود، منتشر نشده است، به جز اینکه این کمک مالی تا سال 2025 ادامه دارد. والتر سینوت-آرمسترانگ، استاد اخلاق عملی در دانشگاه دوک و مسئول این تحقیق، در پاسخ به سوالی اعلام کرده که در حال حاضر نمیتواند درباره این پروژه صحبت کند.
کمک هوش مصنوعی به انسانها
آرمسترانگ و همکارش، یانا بورگ، در گذشته تحقیقات متعددی انجام دادهاند و کتابی درباره پتانسیل هوش مصنوعی به عنوان یک GPS اخلاقی منتشر کردهاند. این تحقیقات به بررسی چگونگی کمک هوش مصنوعی به انسانها برای اتخاذ تصمیمات بهتر پرداختهاند. آنها همچنین الگوریتمی اخلاقمدار برای تصمیمگیری در تخصیص اهداهای کلیه طراحی کرده و بررسی کردهاند که در چه شرایطی مردم ترجیح میدهند هوش مصنوعی تصمیمات اخلاقی بگیرد.
بر اساس بیانیه رسمی منتشر شده، هدف اصلی این پروژه که توسط OpenAI حمایت مالی شده است، آموزش الگوریتمها برای پیشبینی قضاوتهای اخلاقی انسان در سناریوهایی است که در آن تضادهایی میان ویژگیهای اخلاقی مرتبط در زمینههایی مانند پزشکی، حقوق و تجارت وجود دارد. با این حال، هنوز مشخص نیست که مفهومی پیچیده و ظریف مانند اخلاق، با فناوریهای امروزی قابل دستیابی باشد.
به عنوان مثال، در سال 2021، موسسه غیرانتفاعی Allen برای هوش مصنوعی ابزاری به نام Ask Delphi طراحی کرد که هدف آن ارائه توصیههای اخلاقی مناسب بود. این ابزار توانست در حل معضلات اخلاقی ساده موفق عمل کند، اما تغییر جزئی در فرم سوالات باعث میشد که این ابزار پاسخهای نادرست یا حتی غیراخلاقی ارائه دهد، از جمله تایید اقداماتی به شدت غیرقابل قبول مانند خفه کردن نوزادان!
این موضوع نشان میدهد که ایجاد هوش مصنوعی با درک اخلاق انسانی همچنان با چالشهای جدی مواجه است. دلیل این چالش به نحوه عملکرد سیستمهای هوش مصنوعی مدرن بازمیگردد.
مدلهای یادگیری ماشینی
مدلهای یادگیری ماشینی در واقع ماشینهای آماری هستند. این مدلها با استفاده از حجم عظیمی از دادههای موجود در وب آموزش میبینند و الگوهای موجود در این دادهها را برای انجام پیشبینیها شناسایی میکنند. اما هوش مصنوعی هیچ درک واقعی از مفاهیم اخلاقی ندارد و نمیتواند منطق و احساساتی را که در تصمیمگیریهای اخلاقی دخیل هستند، درک کند.
به همین دلیل، هوش مصنوعی معمولاً ارزشهای جوامع غربی، صنعتی و تحصیلکرده را منعکس میکند، چرا که دادههای آموزشی این مدلها عمدتاً از مقالات و محتوایی گرفته شده که این دیدگاهها را نمایندگی میکنند. در نتیجه، بسیاری از ارزشهای انسانی در پاسخهای هوش مصنوعی منعکس نمیشوند، به ویژه اگر این ارزشها از سوی افرادی باشد که در مجموعه دادههای آموزشی این هوش مصنوعی حضور ندارند، یعنی کسانی که به طور فعال محتوایی در فضای آنلاین منتشر نمیکنند.
چالشی که پیش روی OpenAI و پژوهشگرانی که از آن حمایت میکند قرار دارد، به دلیل ماهیت ذهنی و سلیقهای اخلاق، پیچیدهتر هم میشود. هزاران سال است که فیلسوفان درباره مزایا و معایب نظریههای اخلاقی مختلف بحث میکنند و تاکنون هیچ چارچوب جهانی و یکسانی ارائه نشده است.
برای مثال، کلود (Claude) به اخلاقیات و قوانین اخلاقی مطلق تمایل و تمرکز دارد، در حالی که ChatGPT اندکی گرایش به نظریه فایدهگرایی دارد که به دنبال بیشترین سود برای بیشترین تعداد افراد است. اما کدام یک برتر است؟ پاسخ این سؤال بستگی به دیدگاه شخصی دارد. یک الگوریتم برای پیشبینی قضاوتهای اخلاقی انسان باید تمامی این عوامل را در نظر بگیرد. این یک استاندارد بسیار بالا است، البته اگر چنین الگوریتمی اصولاً امکانپذیر باشد.
توسعه اخلاق هوش مصنوعی در صنایع مختلف
توسعه اخلاق در هوش مصنوعی نه تنها در حوزههای پزشکی، حقوق و تجارت، بلکه در صنعت صدا و سیستمهای صوتی نیز میتواند کاربردهای قابل توجهی داشته باشد. برای مثال، در طراحی سیستمهای صوتی هوشمند، انواع اسپیکر و هدفون که از هوش مصنوعی برای شخصیسازی تجربه شنیداری استفاده میکنند، وجود الگوریتمهای اخلاقمدار میتواند به بهبود تعاملات انسان و فناوری کمک کند.
یک نمونه بارز میتواند سیستمهای صوتی هوشمند باشد که از دستیارهای صوتی بهره میبرند. این دستیارها نیاز دارند تا نه تنها دستورات صوتی افراد را درک کنند، بلکه تصمیماتی اخلاقی در پاسخگویی به نیازهای مختلف بگیرند. برای مثال، یک اسپیکر هوشمند که قابلیت تشخیص محتوا را دارد، باید بتواند میان محتوای مناسب برای کودکان و بزرگسالان تمایز قائل شود. یا انواع هدفون هوشمند میتوانند بر اساس شرایط محیطی، مانند تشخیص خطرات صوتی، تصمیمات اخلاقی برای محافظت از فرد اتخاذ کنند.
کلام آخر
تحقیقات در زمینه اخلاق هوش مصنوعی، هرچند امیدوارکننده، با چالشهای پیچیده و بنیادی همراه است. مفاهیم اخلاقی عمیقاً به بافت فرهنگی، اجتماعی و فردی وابستهاند و هوش مصنوعی، به عنوان یک سیستم آماری، فاقد درک واقعی از این مفاهیم است. تلاشهایی مانند پروژه OpenAI گامی مهم در جهت پرکردن این شکاف هستند، اما پیچیدگیهای اخلاق، ذهنیتمحوری آن و نبود چارچوب جهانی واحد، این مسیر را دشوار میسازد.
اگرچه الگوریتمهایی که بتوانند قضاوتهای اخلاقی انسان را پیشبینی کنند میتوانند در زمینههایی مانند پزشکی، حقوق و تجارت کمککننده باشند، همچنان باید با احتیاط به نتایج آنها نگاه کرد. توسعه چنین سیستمهایی نهتنها به پیشرفتهای تکنولوژیکی، بلکه به مشارکت گستردهتری از فرهنگها و جوامع متنوع نیاز دارد تا اطمینان حاصل شود که ارزشهای انسانی به طور جامع و عادلانه منعکس میشوند. اخلاق هوش مصنوعی باید بازتابی از بشریت باشد، نه صرفاً بازتاب دادههایی که به آن وارد شدهاند.
پاسخگوی سوالات شما هستیم
دیدگاهی وجود ندارد!