شفقنا – ابزار جدید جستجوی گوگل، «خلاصه‌های هوش مصنوعی» (AI Overviews)، در کانون طوفانی از انتقادات قرار گرفته است. این ابزار که با موتور هوش مصنوعی جیمینای گوگل کار می‌کند و هدفش ارائه پاسخ‌های سریع و خلاصه‌شده بود، اکنون به دلیل انتشار اطلاعات عجیب، غیرقابل اعتماد و حتی بالقوه خطرناک، اعتبار خود را از دست داده است.

به گزارش سرویس ترجمه شفقنا، نمونه‌های تکان‌دهنده‌ای از «توهمات» این هوش مصنوعی، که به معنای تولید اطلاعات غلط یا ساختگی به عنوان واقعیت است، گزارش شده است. از جمله این موارد، پیشنهاد باورنکردنی افزودن چسب به سس پیتزا برای کمک به چسبیدن پنیر است – ایده‌ای که به وضوح خطرناک و غیرمنطقی است. در موردی دیگر، این هوش مصنوعی یک اصطلاح کاملاً ساختگی با عنوان «نمی‌توانی دو بار به گورکن لیس بزنی» را به عنوان یک ضرب‌المثل معتبر معرفی کرده است. این نمونه‌ها، اگرچه افراطی هستند، اما الگوی نگران‌کننده‌ای از رفتار هوش مصنوعی را برجسته می‌کنند که می‌تواند میلیون‌ها کاربر را گمراه کند.

علاوه بر خطرات مربوط به اطلاعات نادرست، «خلاصه‌های هوش مصنوعی» گوگل ضربه سنگینی به ناشران و وب‌سایت‌های خبری وارد کرده است. این ابزار، به جای هدایت کاربران به منابع معتبر، خلاصه‌های تولید شده توسط هوش مصنوعی را ارائه می‌دهد که اغلب بدون هیچ زمینه‌ای از منابع مختلف استخراج شده‌اند.

لورنس اوتول از شرکت تحلیلگر Authoritas گزارش داده است که نرخ کلیک به وب‌سایت‌های خبری، هنگامی که این خلاصه‌های هوش مصنوعی ظاهر می‌شوند، بین ۴۰ تا ۶۰ درصد کاهش یافته است. این «ربایش جستجو» توسط هوش مصنوعی، نه تنها بقای مالی روزنامه‌نگاری آنلاین را تهدید می‌کند، بلکه سؤالات جدی را در مورد نقش شرکت‌های بزرگ فناوری در انتشار اطلاعات قابل اعتماد مطرح می‌سازد.

گوگل در دفاع از محصول خود ادعا کرده است که اظهارنظر در مورد چسب پیتزا از یک پست قدیمی و نامشخص در ردیت آمده و دیگر نماینده عملکرد فعلی هوش مصنوعی نیست. سخنگوی شرکت اظهار داشت که «اکثر قریب به اتفاق خلاصه‌های هوش مصنوعی دقیق و مفید هستند.» با این حال، در حالی که ابزار جستجوی خود گوگل ادعا می‌کند نرخ توهمات بین ۰.۷ تا ۱.۳ درصد است، پلتفرم هوش مصنوعی Hugging Face این نرخ را ۱.۸ درصد ارزیابی می‌کند. مدل‌های جدیدتر از رقبایی مانند OpenAI نیز در برخی وظایف، نرخ توهم ۳۳ تا ۴۸ درصد را نشان داده‌اند.

منتقدان همچنین به رفتار نگران‌کننده‌ای اشاره می‌کنند که هوش مصنوعی گوگل به نظر می‌رسد از قبل برای «دفاع از خود» برنامه‌ریزی شده است. به عنوان مثال، در پاسخ به این سؤال که آیا هوش مصنوعی هنر را می‌دزدد یا باید از آن ترسید، پاسخ‌ها بدون ذکر منبع، نگرانی‌ها را کمرنگ می‌کنند. کارشناسان نگرانند که این اطمینان‌بخشی داخلی، مشکلات عمیق‌تری را پنهان می‌کند، به خصوص با پیچیده‌تر و غیرقابل پیش‌بینی‌تر شدن سیستم‌های هوش مصنوعی.

با اعتراف رقبایی مانند OpenAI به اینکه مدل‌های جدیدترشان حتی بیشتر از قبل دچار توهم می‌شوند، خطرات ناشی از اطلاعات نادرست تولید شده توسط هوش مصنوعی از بین نخواهد رفت. پافشاری گوگل بر استفاده از ابزارهای مجهز به جیمینای، به قیمت شفافیت و روزنامه‌نگاری واقعی، واکنش‌های شدیدی را برانگیخته است و سؤالات جدی را در مورد اعتماد به شرکت‌های بزرگ فناوری و اطلاعاتی که ارائه می‌دهند، مطرح می‌کند.

این خبر را اینجا ببینید.

source

توسط postbin.ir