یک اشتباه طراحی در ChatGPT باعث شد مکالمات خصوصی کاربران در نتایج جستجوی گوگل ظاهر شود. این اتفاق زمانی رخ داد که کاربران بدون آگاهی کامل، گزینه “قابل کشف‌کردن این چت” را فعال کردند. OpenAI پس از واکنش‌های گسترده، این قابلیت را غیرفعال کرد. این حادثه اهمیت حفظ حریم خصوصی در تعامل با هوش مصنوعی را برجسته می‌کند.

چت کردن با یک هوش مصنوعی معمولاً به‌قدری بی‌خطر به نظر می‌رسد که گویی دارید یک ایمیل به خودتان می‌فرستید—تا زمانی که چنین نیست. اگر این مکالمات توسط گوگل ایندکس شده و در نتایج جست‌وجو ظاهر شوند، بدون تردید زنگ خطر به صدا درمی‌آید؛ دقیقاً همان‌طور که در مورد یک قابلیت عجیب در ChatGPT اتفاق افتاد—قابلیتی که اساساً نباید از ابتدا وجود می‌داشت.

هفته گذشته، Fast Company گزارش داد که کاربران ChatGPT با فعال کردن گزینه جدیدی به نام «قابل کشف‌کردن این چت» (Make this chat discoverable)، ناخواسته مکالمات خصوصی خود با این چت‌بات را به ایندکس جست‌وجوی گوگل فرستاده‌اند. تنها با انتخاب یک چک‌باکس کوچک که در زیر دکمه اشتراک‌گذاری پنهان شده بود، یک گفت‌وگوی خصوصی یک‌به‌یک می‌توانست به یک صفحه وب عمومی و قابل جست‌وجو تبدیل شود.

تنها طی چند ساعت، جست‌وجوی عبارت “site:share.chat.openai.com” هزاران چت شخصی را نشان می‌داد—از اعتراف‌های مربوط به درمان روانی گرفته تا اسرار تجاری و حتی اعتراف به جرایم، طبق گزارش‌های مختلف.

در واکنش سریع برای کنترل بحران، «دین استاکی»، مدیر ارشد امنیت اطلاعات OpenAI، این قابلیت را «آزمایشی کوتاه‌مدت» توصیف کرد که هدفش تنها کمک به کاربران برای به اشتراک گذاشتن مکالمات مفید و آموزنده بوده است. با این حال، شرکت به‌شدت دست‌کم گرفته بود که بسیاری از کاربران «اشتراک‌گذاری» را به معنی «اشتراک‌گذاری خصوصی» تفسیر می‌کنند نه «دعوت از خزنده‌های گوگل». تا صبح جمعه، این قابلیت غیرفعال شد و OpenAI هماهنگی با موتورهای جست‌وجو برای حذف دائمی این مکالمات از کش و حافظه موقت آن‌ها را آغاز کرد.

رقابت شرکت‌های هوش مصنوعی با اعتماد کاربران

تصور کنید که دارید دل‌مشغولی‌هایتان را با یک چت‌بات در میان می‌گذارید—خواه ChatGPT باشد یا Gemini، Copilot، Claude یا هر کدام دیگر—برای مشاوره شغلی، نوشتن متن سوگند ازدواج، یا طرح داستانی جنجالی برای رمان‌تان. سپس ناگهان متوجه شوید که یک غریبه می‌تواند هر خط از صحبت‌های شما را فقط با یک جست‌وجوی ساده در گوگل بخواند. نه به دلیل یک هک یا نشت اطلاعات، بلکه فقط به خاطر یک قابلیت اشتباه. این احساس خیانت، چیزی نیست که بتوان آن را ساده گرفت.

واقعاً جای تعجب دارد که چنین قابلیتی اصلاً در ChatGPT طراحی شده بود. هر کسی که از هوش مصنوعی برای ارتقاء کار یا خلاقیت شخصی‌اش استفاده می‌کند، این کار را در خلوت انجام می‌دهد و طبیعی‌ست که مایل نباشد افکار شخصی، ضعف‌ها و رازهایش را به دیگران نشان دهد. اینکه تیم محصول OpenAI فکر می‌کردند این موضوع برای همه قابل قبول است، جای تعجب دارد—مگر اینکه هدف واقعی، آزمودن رفتار کاربران باشد. در نهایت، ما کاربران چیزی جز موش آزمایشگاهی برای فناوری‌های بزرگ نیستیم، نه؟

تعهد به حفظ حریم خصوصی کاربر باید در اولویت باشد

این نخستین بار نیست که کنترل‌های مربوط به حریم خصوصی در حوزه هوش مصنوعی در انظار عمومی شکست می‌خورند. البته واکنش سریع و اعتراض گسترده باعث شد تا OpenAI اشتباه را اصلاح کند، اما همین اتفاق ممکن است بسیاری از کاربران را نسبت به سپردن افکار درونی‌شان به این فناوری‌ها بدبین‌تر کند.

این خطای OpenAI یادآوری مهمی‌ست: طراحی شفاف و تجربه کاربری دقیق، فقط گزینه‌های اختیاری نیستند، بلکه ضروری‌اند. همان‌طور که «پیتر آرنتز» از شرکت Malwarebytes اشاره کرد: «اصطکاک برای به اشتراک گذاشتن اطلاعات خصوصی باید خیلی بیشتر از یک چک‌باکس باشد—یا اصلاً نباید وجود داشته باشد.» من کاملاً با این دیدگاه موافقم.

پیش از عمومی‌سازی هر مکالمه‌ای، پلتفرم‌ها باید تأیید دو مرحله‌ای داشته باشند—شاید حتی یک آزمون کوچک برای اینکه کاربر مطمئن باشد دقیقاً چه چیزی را دارد منتشر می‌کند. بدیهی است که مکالمات کاربران با چت‌بات‌ها باید به صورت پیش‌فرض خصوصی باشند و قابلیت کشف‌پذیری آن‌ها خاموش. تمام.

مهم‌تر از همه، دولت‌ها باید از این موقعیت‌ها برای سخت‌گیرتر کردن قوانین حفظ حریم خصوصی و محافظت از داده‌های کاربران در حوزه هوش مصنوعی استفاده کنند و شرکت‌ها را مجبور کنند که از ابتدا مطابق با استانداردهای شفاف و ایمن طراحی کنند—نه اینکه پس از وقوع رسوایی، به‌دنبال اصلاح بروند.

آزمون واقعی برای هوش مصنوعی

در نهایت، آزمون واقعی برای فناوری هوش مصنوعی این نیست که چقدر سریع می‌تواند به سوالات پاسخ دهد، بلکه این است که با چه دقتی از لحظات خصوصی و شخصی ما محافظت می‌کند. وقتی با این سیستم‌ها صحبت می‌کنیم، فقط متن تولید نمی‌کنیم، بلکه تکه‌هایی از زندگی‌مان را به اشتراک می‌گذاریم—چیزی که نباید با آن بازی کرد.

source

توسط postbin.ir