کارشناسان بر این باورند که تعصب در هوش مصنوعی هم وجود دارد. سیستم های غیرمتمرکز می توانند به امنیت یکپارچگی و عینیت اطلاعاتی که به سیستم های هوش مصنوعی ارائه می شوند کمک کنند. اما هنوز محدودیت های بسیار واضحی وجود دارد.
سیستم های هوش مصنوعی بـدون عیب نیستند. سیستم های هـوش مصنوعی به اطلاعات متکی هستند. کیفیت اطلاعات ورودی بسیار مهـم است. زیرا هر اطلاعات منحرفی می توانـد باعث تعصب در سیستم شود. بنابراین، اطمینان از یکپارچگی و عینی بودن اطلاعات ضروری است.
عـوامل بسیار زیادی می توانند به اطلاعات جانبدارانه در سیستم های هوش مصنوعی کمک کنند. اولا، ممکن است فرآیند جمع آوری ناقص باشد و نمونه ها نماینده جامعه هدف نیستند. ثانیا، سوگیری های تاریخی می تواند بـه اطلاعات آموزشی نفوذ کند، کـه می تواند تعصبات اجتماعی را تداوم بخشد.
سوگیری های انسانی می توانند بـه صورت ناخواسته در طی فرآیند برچسب گذاری اطلاعات معرفی شوند. زیرا برچسب گذاران ممکن است پیشداوری های ناخودآگاه را در خود جای دهند. انتخاب خصوصیات یا متغیرهای مورد استفاده در مدل های هـوش مصنوعی می تواند منجر به نتیجه گیری مغرضانه شود. چون بعضی از ویژگی ها امکان دارد با گـروه های خاصی همبستگی بیشتری داشته باشند و باعث رفتار ناعادلانه شوند.
آیا بلاک چین قادر است هـوش مصنوعی بی طرفانه را ممکن کند؟
سیستم های هوش مصنوعی، مانند مدل های یادگیری ماشین، می توانند گرایش های تبعیض آمیز خاصی را بر اساس داده هایی که روی آن ها آموزش دیده اند ایجاد کنند.
زنجیره های بلـوکی قـادر هستند اشتراک گذاری امـن و کارآمد اطلاعات را در میان چندین طـرف آسان کنند. همچنین امکان توسعه مجموعه های اطلاعات متنوع تر و نماینده تری را فراهم کنند.
تمرکز زدایی فرآیند آموزش
بـلاک چین بـا عمل تمرکز زدایی فـرآیند آموزش می تواند چندین طرف را قـادر کند تا اطلاعات و تخصص خود را بـه اشتراک بگذارند، این می تواند بـه کـم شدن تـأثیر هر نظر مغرضانه ای کمک کند.
آنچه کـه سیستم های بلاک چین و Web3 می توانند ارائه دهند عینیت کامل یا نبود سوگیری نیست، بلکه شفافیت است تا کاربران ببینند کـه یک سیستم هوش مصنوعی چه تعصبی دارد. همچنین قابلیت پیکربندی باز را عرضه می کند تا یک جامعه کاربر بتواند یک مدل هوش مصنوعی را بـه نحوی تنظیم کند کـه ترجیح می دهد و به طور واضح مشاهده کند که چه نوع سوگیری را انعکاس می دهد. اکثر الگوریتم های مشهور هوش مصنوعی، مانند ChatGPT، از نظر شفافیت و افشای سوگیری های خود ضعیف هستند.
دن پترسون مدیر عامل Tenet که یک شبکه بـلاک چین متمرکز بر هـوش مصنوعی است گفت: کـه تعیین کمیت بی طرفی سخت است و تعدادی از معیارهای هوش مصنوعی بی طرفانه نیستند چون هیچ خط قابل مقیاسی برای مدتی که یک مجموعه اطلاعات بی طرفی خود را از دست می دهد وجود ندارد.
غلبه بر مفهوم هر چیزی واقعاً بی طرفانه از لحاظ تاریخی چالشی دشوار بوده است. اما کاری که می توانیم انجام دهیم این است که از ابزارهایی استفاده کنیم که با استفاده از بلاک چین و فناوری Web3 به راحتی در دسترس ما قرار گرفته اند.