بر اساس نتایج یک مطالعه، «چت جی پی تی» هنگام پاسخدهی به سوالات کاربران، یک تغییر به سمت راست طیفهای سیاسی را نشان داده است.
محققان چینی دریافتند که «چت جی پی تی» یا همان چت بات محبوب هوش مصنوعی، هنگام پاسخدهی در موضوعات دارای محتوای سیاسی، در حال حرکت به سمت راست است.
این مطالعه که در مجله Humanities and Social Science Communications منتشر شد، چندین مدل از سوالات طرح شده از «ChatGPT 62» را در وبسایت «Political Compass Test» مطرح کرد. این وبسایت آنلاین، کاربران را بر اساس پاسخهایشان در جایی در طیف سیاسی قرار میدهد.
پژوهشگران این سوالات را بیش از ۳ هزار بار در مدلهای مختلف «چت جی پی تی» تکرار کردند تا بفهمند پاسخهایی دریافتی آنها در طول زمان چگونه تغییر میکند.
آنها دریافتند در حالی که «چت جی پی تی» همچنان ارزشهای «چپ آزادیخواه» را حفظ میکند، مدلهایی مانند GPT3.5 و GPT4 در طول زمان در نحوه پاسخ به سوالات «شیب قابل توجهی به سمت راست نشان میدهند».
آنها همچنین به این جمعبندی رسیدند که نتایج «با توجه به استفاده گسترده از مدلهای زبان بزرگ (LLM) و تأثیر بالقوه آنها بر ارزشهای اجتماعی قابل توجه است».
پیش از تحقیق دانشگاه پکن، مطالعات دیگری در همین رابطه در سال ۲۰۲۴ میلادی توسط موسسه فناوری ماساچوست (MIT) و مرکز مطالعات سیاست انگلستان انجام و منتشر شده بود.
هر دوی این گزارشها به سوگیری سیاسی «چپگرایانه» در پاسخهای ارائه شده توسط LLM ها اشاره کردند.
نویسندگان دانشگاه پکن خاطرنشان میکنند که در مطالعات قبلی، به چگونگی تغییر پاسخهای چت باتهای هوش مصنوعی در طول زمان هنگامی که مجموعهای از سوالات مشابه بارها پرسیده شده، نپرداختند.
مدلهای هوش مصنوعی باید تحت «بررسی مداوم» باشند
محققان برای این «تغییر به سمت راست» سه نظریه مطرح کردند: تغییر در مجموعه دادههای مورد استفاده، تغییر در تعداد تعامل با کاربران، یا تغییرات و به روز رسانی چت باتها.
به گفته آنها، مدلهایی مانند ChatGPT «به طور مداوم بر اساس بازخورد کاربران یاد میگیرند و سازگار میشوند» بنابراین تغییر آنها به سمت راست ممکن است «منعکس کننده تغییرات اجتماعی گستردهتر در ارزشهای سیاسی باشد».
قطبی شدن رویدادهای جهانی مانند جنگ روسیه و اوکراین نیز میتواند در آنچه کاربران از LLM ها میپرسند و پاسخهای ناشی از آن تاثیر بگذارد.
پژوهشگران هشدار دادند که اگر این وضعیت کنترل نشود، آنگاه چت بات های هوش مصنوعی میتوانند شروع به ارائه «اطلاعات نادرست» کنند که میتواند جامعه را بیشتر قطبی کند یا اتاقهای پژواک (echo chambers) ایجاد کند که باورهای خاصی را در میان کاربران را تقویت میکند.
پژوهشگران تاکید دارند که راه مقابله با این مشکل، «بررسی مداوم» مدلهای هوش مصنوعی است تا اطمینان حاصل شود پاسخهای چت بات عادلانه و متعادل است.
«چت جی پی تی» در دفاع از خود
«چت جی پی تی» در دفاع از خود میگوید به گونهای طراحی شده است تا بیطرف بماند و پاسخهایش را بر اساس دادههای متنوع و متعادل ارائه دهد. با این حال، «چت جی پی تی» میگوید که سوگیریها میتوانند به دلایل مختلفی در مدلهای زبانی ایجاد شوند، از جمله:
- دادههای آموزشی – مدلهای زبانی مانند «چت جی پی تی» از متون موجود در اینترنت و منابع مختلف آموزش میبینند. اگر دادههای آموزشی حاوی سوگیری باشند، ممکن است این سوگیریها در پاسخها منعکس شوند.
- نحوه پرسش و تعامل کاربران – طرز بیان سؤالها و جهتگیری مکالمات بر پاسخها تأثیر میگذارد. مدل ممکن است طوری تنظیم شود که پاسخهایی متناسب با زمینه سؤال ارائه دهد.
- محدودیتهای فنی و الگوریتمی – علیرغم تلاش برای کاهش سوگیری، مدلهای زبانی هنوز در حال بهبود هستند و ممکن است در برخی موارد ناخواسته به سمت یک دیدگاه خاص متمایل شوند.
تحقیقات مستقل درباره سوگیری مدلهای زبانی نتایج متفاوتی ارائه دادهاند. برخی مطالعات نشان دادهاند که این مدلها بسته به موضوع و نحوه تنظیم دادهها، ممکن است در برخی زمینهها گرایشهایی داشته باشند. با این حال، OpenAI همواره در تلاش است تا مدلهای خود را متعادلتر و بیطرفتر کند.
source