Anthropic، یک چت ربات هوش مصنوعی دموکراتیک ساخت
Anthropic، یک چت ربات هوش مصنوعی دموکراتیک ساخت، در چشم انداز به سرعت در حال تحول هوش مصنوعی (AI)، مسئله همسویی ارزش و تصمیم گیری اخلاقی به طور فزاینده ای مطرح شد. توسعه دهندگان با چالش القای مدل های هوش مصنوعی خود با مجموعه ای از مقادیر از پیش تعریف شده دست و پنجه نرم کردند تا از رفتار مسئولانه در حین استفاده از فناوری اطمینان حاصل کنند. با این حال، این رویکرد، که اغلب از طریق نردههای محافظ و دستورالعملهای کدگذاری سخت اجرا میشود، به دلیل نقض بالقوه استقلال کاربران و تحمیل مجموعهای از ارزشها در دنیایی متنوع و پویا مورد انتقاد قرار گرفت.
Anthropic، یک چت ربات هوش مصنوعی دموکراتیک ساخت
شرکت Anthropic، یک شرکت هوش مصنوعی، با درک این محدودیت ها و نیاز به رویکردی دموکراتیک تر برای توسعه هوش مصنوعی، آزمایشی پیشگامانه را آغاز کرد. آنها یک مدل زبان بزرگ (LLM) ایجاد کردند که بر اساس قضاوتهای ارزشی جامعه کاربر تنظیم شد. و آن را به یکی از اولین نمونههای توسعه هوش مصنوعی با هدایت اصول دموکراتیک تبدیل میکند.
نرده های محافظ و رفتار هوش مصنوعی
در سالهای اخیر، توسعه LLMهای عمومی مانند Claude by Anthropic و ChatGPT توسط OpenAI اغلب از نردههای محافظ برای اطمینان از استفاده مسئولانه از هوش مصنوعی استفاده کرد. این نردههای محافظ اساساً قوانین و محدودیتهای از پیش تعریفشدهای هستند که رفتار مدل را دیکته میکنند و از تولید خروجیهای مرتبط با موضوعات خشونتآمیز، بحثبرانگیز یا اعتراضآمیز جلوگیری میکنند. در حالی که چنین نردههایی با نیت خوب طراحی شدند و برای مهار رفتار نامطلوب هوش مصنوعی طراحی شدند، انعطافپذیری سیستمهای هوش مصنوعی را نیز محدود میکنند و ممکن است همیشه با انتظارات یا ارزشهای کاربران هماهنگ نباشند.
چالش اخلاق و ارزش ها
تعریف اینکه چه چیزی از نظر اخلاقی قابل قبول یا ارزشمند است می تواند یک کار سخت باشد. زیرا این قضاوت ها بسیار ذهنی هستند و می توانند در فرهنگ ها، جمعیت ها و دوره های زمانی متفاوت باشند. آنچه را که یک گروه قابل قبول میداند، گروهی دیگر ممکن است غیرقابل قبول بدانند، که منجر به چالشی عمیق در طراحی سیستمهای هوش مصنوعی میشود که سیستمهای ارزشی متنوع و در حال تکامل را تامین میکنند.
به دنبال راه حلی که کاربران را توانمند می کند و مدل های هوش مصنوعی را با ارزش های جمعی آنها همسو می کند، آنتروپیک آزمایش “هوش مصنوعی مشروطه جمعی” را با همکاری پولیس و پروژه هوش جمعی راه اندازی کرد. این آزمایش به دنبال این بود که به کاربران آژانس بدهد تا ارزشها و مرزهای اخلاقی مدلهای هوش مصنوعی را تعیین کنند. و چالش ایجاد تعادل بین توانمندسازی کاربر و جلوگیری از خروجیهای نامناسب هوش مصنوعی را برطرف کنند.
آزمایش AI مشروطه جمعی
رویکرد آنتروپیک برای ایجاد یک هوش مصنوعی دموکراتیک تر شامل تعامل با 1000 کاربر با پیشینه ها و جمعیت های مختلف بود. از این کاربران خواسته شد تا در مجموعه ای از نظرسنجی ها و سوالات شرکت کنند. تا دیدگاه های خود را در مورد همسویی ارزش هوش مصنوعی جمع آوری کنند.
این رویکرد جدید حول محور جمعآوری و ادغام ارزشهای کاربر در یک مدل هوش مصنوعی از قبل موجود است که قبلاً تحت آموزش قرار گرفت. برای دستیابی به این هدف، آنتروپیک از روشی به نام «هوش مصنوعی قانونی» استفاده کرد که مجموعهای از قوانین را مشخص میکند. که مدل هوش مصنوعی باید در طول فرآیند تصمیمگیری خود به آن پایبند باشد، مشابه قانون اساسی حاکم بر یک کشور.
هدف آنتروپیک در آزمایش هوش مصنوعی مشروطه جمعی، گنجاندن بازخوردهای مبتنی بر گروه و ارزشهای کاربر در ساختار مدل بود. نتایج، همانطور که توسط Anthropic گزارش شده، نشان میدهد. که این آزمایش یک موفقیت علمی بود و چالشهای مرتبط با توانمندسازی کاربران را برای تعریف دسته جمعی مقادیر یک مدل هوش مصنوعی روشن میکند.
غلبه بر چالش های معیار
یکی از چالشهای قابل توجهی که در طول این آزمایش با آن مواجه شد. عدم وجود معیارهای تعیینی برای مقایسه مدلهای هوش مصنوعی پایه با مدلهایی بود که با استفاده از مقادیر منبعجمعیت تنظیم شده بودند. با توجه به اینکه این تلاش بیسابقه بود و بر روششناسی هوش مصنوعی آنتروپیک متکی بود. محققان مجبور شدند روش جدیدی برای ارزیابی اثربخشی رویکرد خود ابداع کنند.
نتایج امیدوار کننده
در نهایت، مدلی که بازخورد نظرسنجی کاربران را در خود جای داده بود، در مورد کاهش خروجیهای مغرضانه، «کمی» بهتر از مدل پایه عمل کرد. این نشان میدهد که مشارکت دادن کاربران در فرآیند تعریف ارزشهای هوش مصنوعی میتواند منجر به سیستمهای هوش مصنوعی شود. که با انتظارات و ارزشهای کاربران هماهنگتر شوند و در عین حال رفتار مسئولانه را حفظ کنند.
در آخر
آزمایش آنتروپیک گامی مهم به سمت یک رویکرد دموکراتیک تر برای توسعه هوش مصنوعی است. که راه حلی بالقوه برای چالش های مرتبط با همسویی ارزش و تصمیم گیری اخلاقی در هوش مصنوعی ارائه می دهد. با اجازه به کاربران برای مشارکت در شکلدهی ارزشهای مدلهای هوش مصنوعی، توسعهدهندگان میتوانند در جهت ایجاد فناوریای که به ارزشهای فردی و جمعی احترام میگذارد. و در عین حال استانداردهای اخلاقی را رعایت میکند، کار کنند. این تلاش پیشگامانه Anthropic راه را برای آینده ای فراگیرتر و دموکراتیک تر برای توسعه هوش مصنوعی هموار می کند.