بر اساس نتایج یک مطالعه، «چت جی پی تی» هنگام پاسخ‌دهی به سوالات کاربران، یک تغییر به سمت راست طیف‌های سیاسی را نشان داده است.

آگهی

محققان چینی دریافتند که «چت جی پی تی» یا همان چت بات محبوب هوش مصنوعی، هنگام پاسخ‌دهی در موضوعات دارای محتوای سیاسی، در حال حرکت به سمت راست است.

این مطالعه که در مجله Humanities and Social Science Communications منتشر شد، چندین مدل از سوالات طرح شده از «ChatGPT 62» را در وبسایت «Political Compass Test» مطرح کرد. این وبسایت آنلاین، کاربران را بر اساس پاسخ‌هایشان در جایی در طیف سیاسی قرار می‌دهد.

پژوهشگران این سوالات را بیش از ۳ هزار بار در مدلهای مختلف «چت جی پی تی» تکرار کردند تا بفهمند پاسخ‌هایی دریافتی آنها در طول زمان چگونه تغییر می‌کند.

آنها دریافتند در حالی که «چت جی پی تی» همچنان ارزش‌های «چپ آزادیخواه» را حفظ می‌کند، مدل‌هایی مانند GPT3.5 و GPT4 در طول زمان در نحوه پاسخ به سوالات «شیب قابل توجهی به سمت راست نشان می‌دهند».

آنها همچنین به این جمع‌بندی رسیدند که نتایج «با توجه به استفاده گسترده از مدل‌های زبان بزرگ (LLM) و تأثیر بالقوه آنها بر ارزش‌های اجتماعی قابل توجه است».

پیش از تحقیق دانشگاه پکن، مطالعات دیگری در همین رابطه در سال ۲۰۲۴ میلادی توسط موسسه فناوری ماساچوست (MIT) و مرکز مطالعات سیاست انگلستان انجام و منتشر شده بود.

هر دوی این گزارش‌ها به سوگیری سیاسی «چپ‌گرایانه» در پاسخ‌های ارائه شده توسط LLM ها اشاره کردند.

نویسندگان دانشگاه پکن خاطرنشان می‌کنند که در مطالعات قبلی، به چگونگی تغییر پاسخ‌های چت بات‌های هوش مصنوعی در طول زمان هنگامی که مجموعه‌ای از سوالات مشابه بارها پرسیده شده، نپرداختند.

مدل‌های هوش مصنوعی باید تحت «بررسی مداوم» باشند

محققان برای این «تغییر به سمت راست» سه نظریه مطرح کردند: تغییر در مجموعه داده‌های مورد استفاده، تغییر در تعداد تعامل با کاربران، یا تغییرات و به روز رسانی چت بات‌ها.

به گفته آنها، مدل‌هایی مانند ChatGPT «به طور مداوم بر اساس بازخورد کاربران یاد می‌گیرند و سازگار می‌شوند» بنابراین تغییر آنها به سمت راست ممکن است «منعکس کننده تغییرات اجتماعی گسترده‌تر در ارزش‌های سیاسی باشد».

قطبی شدن رویدادهای جهانی مانند جنگ روسیه و اوکراین نیز می‌تواند در آنچه کاربران از LLM ها می‌پرسند و پاسخ‌های ناشی از آن تاثیر بگذارد.

پژوهشگران هشدار دادند که اگر این وضعیت کنترل نشود، آنگاه چت بات های هوش مصنوعی می‌توانند شروع به ارائه «اطلاعات نادرست» کنند که می‌تواند جامعه را بیشتر قطبی کند یا اتاق‌های پژواک (echo chambers) ایجاد کند که باورهای خاصی را در میان کاربران را تقویت می‌کند.

پژوهشگران تاکید دارند که راه مقابله با این مشکل، «بررسی مداوم» مدل‌های هوش مصنوعی است تا اطمینان حاصل شود پاسخ‌های چت بات عادلانه و متعادل است.

«چت جی پی تی» در دفاع از خود

«چت جی پی تی» در دفاع از خود می‌گوید به گونه‌ای طراحی شده‌ است تا بی‌طرف بماند و پاسخ‌هایش را بر اساس داده‌های متنوع و متعادل ارائه دهد. با این حال، «چت جی پی تی» می‌گوید که سوگیری‌ها می‌توانند به دلایل مختلفی در مدل‌های زبانی ایجاد شوند، از جمله:

  • داده‌های آموزشی – مدل‌های زبانی مانند «چت جی پی تی» از متون موجود در اینترنت و منابع مختلف آموزش می‌بینند. اگر داده‌های آموزشی حاوی سوگیری باشند، ممکن است این سوگیری‌ها در پاسخ‌ها منعکس شوند.
  • نحوه پرسش و تعامل کاربران – طرز بیان سؤال‌ها و جهت‌گیری مکالمات بر پاسخ‌ها تأثیر می‌گذارد. مدل ممکن است طوری تنظیم شود که پاسخ‌هایی متناسب با زمینه سؤال ارائه دهد.
  • محدودیت‌های فنی و الگوریتمی – علی‌رغم تلاش برای کاهش سوگیری، مدل‌های زبانی هنوز در حال بهبود هستند و ممکن است در برخی موارد ناخواسته به سمت یک دیدگاه خاص متمایل شوند.

تحقیقات مستقل درباره سوگیری مدل‌های زبانی نتایج متفاوتی ارائه داده‌اند. برخی مطالعات نشان داده‌اند که این مدل‌ها بسته به موضوع و نحوه تنظیم داده‌ها، ممکن است در برخی زمینه‌ها گرایش‌هایی داشته باشند. با این حال، OpenAI همواره در تلاش است تا مدل‌های خود را متعادل‌تر و بی‌طرف‌تر کند.

source

توسط postbin.ir