frontpage hit counter
آخرین اخبار بازار ارزهای دیجیتال

Anthropic، یک چت ربات هوش مصنوعی دموکراتیک ساخت

Anthropic، یک چت ربات هوش مصنوعی دموکراتیک ساخت، در چشم انداز به سرعت در حال تحول هوش مصنوعی (AI)، مسئله همسویی ارزش و تصمیم گیری اخلاقی به طور فزاینده ای مطرح شد. توسعه دهندگان با چالش القای مدل های هوش مصنوعی خود با مجموعه ای از مقادیر از پیش تعریف شده دست و پنجه نرم کردند تا از رفتار مسئولانه در حین استفاده از فناوری اطمینان حاصل کنند. با این حال، این رویکرد، که اغلب از طریق نرده‌های محافظ و دستورالعمل‌های کدگذاری سخت اجرا می‌شود، به دلیل نقض بالقوه استقلال کاربران و تحمیل مجموعه‌ای از ارزش‌ها در دنیایی متنوع و پویا مورد انتقاد قرار گرفت.

Anthropic، یک چت ربات هوش مصنوعی دموکراتیک ساخت

شرکت Anthropic، یک شرکت هوش مصنوعی، با درک این محدودیت ها و نیاز به رویکردی دموکراتیک تر برای توسعه هوش مصنوعی، آزمایشی پیشگامانه را آغاز کرد. آنها یک مدل زبان بزرگ (LLM) ایجاد کردند که بر اساس قضاوت‌های ارزشی جامعه کاربر تنظیم شد. و آن را به یکی از اولین نمونه‌های توسعه هوش مصنوعی با هدایت اصول دموکراتیک تبدیل می‌کند.

Anthropic، یک چت ربات هوش مصنوعی دموکراتیک ساخت
Anthropic، یک چت ربات هوش مصنوعی دموکراتیک ساخت

نرده های محافظ و رفتار هوش مصنوعی

در سال‌های اخیر، توسعه LLM‌های عمومی مانند Claude by Anthropic و ChatGPT توسط OpenAI اغلب از نرده‌های محافظ برای اطمینان از استفاده مسئولانه از هوش مصنوعی استفاده کرد. این نرده‌های محافظ اساساً قوانین و محدودیت‌های از پیش تعریف‌شده‌ای هستند که رفتار مدل را دیکته می‌کنند و از تولید خروجی‌های مرتبط با موضوعات خشونت‌آمیز، بحث‌برانگیز یا اعتراض‌آمیز جلوگیری می‌کنند. در حالی که چنین نرده‌هایی با نیت خوب طراحی شدند و برای مهار رفتار نامطلوب هوش مصنوعی طراحی شدند، انعطاف‌پذیری سیستم‌های هوش مصنوعی را نیز محدود می‌کنند و ممکن است همیشه با انتظارات یا ارزش‌های کاربران هماهنگ نباشند.

چالش اخلاق و ارزش ها

تعریف اینکه چه چیزی از نظر اخلاقی قابل قبول یا ارزشمند است می تواند یک کار سخت باشد. زیرا این قضاوت ها بسیار ذهنی هستند و می توانند در فرهنگ ها، جمعیت ها و دوره های زمانی متفاوت باشند. آنچه را که یک گروه قابل قبول می‌داند، گروهی دیگر ممکن است غیرقابل قبول بدانند، که منجر به چالشی عمیق در طراحی سیستم‌های هوش مصنوعی می‌شود که سیستم‌های ارزشی متنوع و در حال تکامل را تامین می‌کنند.

به دنبال راه حلی که کاربران را توانمند می کند و مدل های هوش مصنوعی را با ارزش های جمعی آنها همسو می کند، آنتروپیک آزمایش “هوش مصنوعی مشروطه جمعی” را با همکاری پولیس و پروژه هوش جمعی راه اندازی کرد. این آزمایش به دنبال این بود که به کاربران آژانس بدهد تا ارزش‌ها و مرزهای اخلاقی مدل‌های هوش مصنوعی را تعیین کنند. و چالش ایجاد تعادل بین توانمندسازی کاربر و جلوگیری از خروجی‌های نامناسب هوش مصنوعی را برطرف کنند.

Anthropic
Anthropic

آزمایش AI مشروطه جمعی

رویکرد آنتروپیک برای ایجاد یک هوش مصنوعی دموکراتیک تر شامل تعامل با 1000 کاربر با پیشینه ها و جمعیت های مختلف بود. از این کاربران خواسته شد تا در مجموعه ای از نظرسنجی ها و سوالات شرکت کنند. تا دیدگاه های خود را در مورد همسویی ارزش هوش مصنوعی جمع آوری کنند.

این رویکرد جدید حول محور جمع‌آوری و ادغام ارزش‌های کاربر در یک مدل هوش مصنوعی از قبل موجود است که قبلاً تحت آموزش قرار گرفت. برای دستیابی به این هدف، آنتروپیک از روشی به نام «هوش مصنوعی قانونی» استفاده کرد که مجموعه‌ای از قوانین را مشخص می‌کند. که مدل هوش مصنوعی باید در طول فرآیند تصمیم‌گیری خود به آن پایبند باشد، مشابه قانون اساسی حاکم بر یک کشور.

هدف آنتروپیک در آزمایش هوش مصنوعی مشروطه جمعی، گنجاندن بازخوردهای مبتنی بر گروه و ارزش‌های کاربر در ساختار مدل بود. نتایج، همانطور که توسط Anthropic گزارش شده، نشان می‌دهد. که این آزمایش یک موفقیت علمی بود و چالش‌های مرتبط با توانمندسازی کاربران را برای تعریف دسته جمعی مقادیر یک مدل هوش مصنوعی روشن می‌کند.

غلبه بر چالش های معیار

یکی از چالش‌های قابل توجهی که در طول این آزمایش با آن مواجه شد. عدم وجود معیارهای تعیینی برای مقایسه مدل‌های هوش مصنوعی پایه با مدل‌هایی بود که با استفاده از مقادیر منبع‌جمعیت تنظیم شده بودند. با توجه به اینکه این تلاش بی‌سابقه بود و بر روش‌شناسی هوش مصنوعی آنتروپیک متکی بود. محققان مجبور شدند روش جدیدی برای ارزیابی اثربخشی رویکرد خود ابداع کنند.

نتایج امیدوار کننده

در نهایت، مدلی که بازخورد نظرسنجی کاربران را در خود جای داده بود، در مورد کاهش خروجی‌های مغرضانه، «کمی» بهتر از مدل پایه عمل کرد. این نشان می‌دهد که مشارکت دادن کاربران در فرآیند تعریف ارزش‌های هوش مصنوعی می‌تواند منجر به سیستم‌های هوش مصنوعی شود. که با انتظارات و ارزش‌های کاربران هماهنگ‌تر شوند و در عین حال رفتار مسئولانه را حفظ کنند.

Anthropic
Anthropic

در آخر

آزمایش آنتروپیک گامی مهم به سمت یک رویکرد دموکراتیک تر برای توسعه هوش مصنوعی است. که راه حلی بالقوه برای چالش های مرتبط با همسویی ارزش و تصمیم گیری اخلاقی در هوش مصنوعی ارائه می دهد. با اجازه به کاربران برای مشارکت در شکل‌دهی ارزش‌های مدل‌های هوش مصنوعی، توسعه‌دهندگان می‌توانند در جهت ایجاد فناوری‌ای که به ارزش‌های فردی و جمعی احترام می‌گذارد. و در عین حال استانداردهای اخلاقی را رعایت می‌کند، کار کنند. این تلاش پیشگامانه Anthropic راه را برای آینده ای فراگیرتر و دموکراتیک تر برای توسعه هوش مصنوعی هموار می کند.

لیست قیمت ارز دیجیتال

Rmitx

علاقمند به تکنولوژی بلاکچین و ارزهای دیجیتال از سال 2017 محقق در زمینه متاورس. آموخته های شخصیم رو بصورت مقاله و رایگان در سایت ارزدیجیتال در اختیار شما عزیزان قرار خواهم داد. امیدوارم بتوانم نقشی در توسعه و معرفی این تکنولوژی کاربردی در دنیای دیجیتال و جهان آینده داشته باشم.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا