یک اشتباه طراحی در ChatGPT باعث شد مکالمات خصوصی کاربران در نتایج جستجوی گوگل ظاهر شود. این اتفاق زمانی رخ داد که کاربران بدون آگاهی کامل، گزینه “قابل کشفکردن این چت” را فعال کردند. OpenAI پس از واکنشهای گسترده، این قابلیت را غیرفعال کرد. این حادثه اهمیت حفظ حریم خصوصی در تعامل با هوش مصنوعی را برجسته میکند.
چت کردن با یک هوش مصنوعی معمولاً بهقدری بیخطر به نظر میرسد که گویی دارید یک ایمیل به خودتان میفرستید—تا زمانی که چنین نیست. اگر این مکالمات توسط گوگل ایندکس شده و در نتایج جستوجو ظاهر شوند، بدون تردید زنگ خطر به صدا درمیآید؛ دقیقاً همانطور که در مورد یک قابلیت عجیب در ChatGPT اتفاق افتاد—قابلیتی که اساساً نباید از ابتدا وجود میداشت.
هفته گذشته، Fast Company گزارش داد که کاربران ChatGPT با فعال کردن گزینه جدیدی به نام «قابل کشفکردن این چت» (Make this chat discoverable)، ناخواسته مکالمات خصوصی خود با این چتبات را به ایندکس جستوجوی گوگل فرستادهاند. تنها با انتخاب یک چکباکس کوچک که در زیر دکمه اشتراکگذاری پنهان شده بود، یک گفتوگوی خصوصی یکبهیک میتوانست به یک صفحه وب عمومی و قابل جستوجو تبدیل شود.
تنها طی چند ساعت، جستوجوی عبارت “site:share.chat.openai.com” هزاران چت شخصی را نشان میداد—از اعترافهای مربوط به درمان روانی گرفته تا اسرار تجاری و حتی اعتراف به جرایم، طبق گزارشهای مختلف.
در واکنش سریع برای کنترل بحران، «دین استاکی»، مدیر ارشد امنیت اطلاعات OpenAI، این قابلیت را «آزمایشی کوتاهمدت» توصیف کرد که هدفش تنها کمک به کاربران برای به اشتراک گذاشتن مکالمات مفید و آموزنده بوده است. با این حال، شرکت بهشدت دستکم گرفته بود که بسیاری از کاربران «اشتراکگذاری» را به معنی «اشتراکگذاری خصوصی» تفسیر میکنند نه «دعوت از خزندههای گوگل». تا صبح جمعه، این قابلیت غیرفعال شد و OpenAI هماهنگی با موتورهای جستوجو برای حذف دائمی این مکالمات از کش و حافظه موقت آنها را آغاز کرد.
رقابت شرکتهای هوش مصنوعی با اعتماد کاربران
تصور کنید که دارید دلمشغولیهایتان را با یک چتبات در میان میگذارید—خواه ChatGPT باشد یا Gemini، Copilot، Claude یا هر کدام دیگر—برای مشاوره شغلی، نوشتن متن سوگند ازدواج، یا طرح داستانی جنجالی برای رمانتان. سپس ناگهان متوجه شوید که یک غریبه میتواند هر خط از صحبتهای شما را فقط با یک جستوجوی ساده در گوگل بخواند. نه به دلیل یک هک یا نشت اطلاعات، بلکه فقط به خاطر یک قابلیت اشتباه. این احساس خیانت، چیزی نیست که بتوان آن را ساده گرفت.
واقعاً جای تعجب دارد که چنین قابلیتی اصلاً در ChatGPT طراحی شده بود. هر کسی که از هوش مصنوعی برای ارتقاء کار یا خلاقیت شخصیاش استفاده میکند، این کار را در خلوت انجام میدهد و طبیعیست که مایل نباشد افکار شخصی، ضعفها و رازهایش را به دیگران نشان دهد. اینکه تیم محصول OpenAI فکر میکردند این موضوع برای همه قابل قبول است، جای تعجب دارد—مگر اینکه هدف واقعی، آزمودن رفتار کاربران باشد. در نهایت، ما کاربران چیزی جز موش آزمایشگاهی برای فناوریهای بزرگ نیستیم، نه؟
تعهد به حفظ حریم خصوصی کاربر باید در اولویت باشد
این نخستین بار نیست که کنترلهای مربوط به حریم خصوصی در حوزه هوش مصنوعی در انظار عمومی شکست میخورند. البته واکنش سریع و اعتراض گسترده باعث شد تا OpenAI اشتباه را اصلاح کند، اما همین اتفاق ممکن است بسیاری از کاربران را نسبت به سپردن افکار درونیشان به این فناوریها بدبینتر کند.
این خطای OpenAI یادآوری مهمیست: طراحی شفاف و تجربه کاربری دقیق، فقط گزینههای اختیاری نیستند، بلکه ضروریاند. همانطور که «پیتر آرنتز» از شرکت Malwarebytes اشاره کرد: «اصطکاک برای به اشتراک گذاشتن اطلاعات خصوصی باید خیلی بیشتر از یک چکباکس باشد—یا اصلاً نباید وجود داشته باشد.» من کاملاً با این دیدگاه موافقم.
پیش از عمومیسازی هر مکالمهای، پلتفرمها باید تأیید دو مرحلهای داشته باشند—شاید حتی یک آزمون کوچک برای اینکه کاربر مطمئن باشد دقیقاً چه چیزی را دارد منتشر میکند. بدیهی است که مکالمات کاربران با چتباتها باید به صورت پیشفرض خصوصی باشند و قابلیت کشفپذیری آنها خاموش. تمام.
مهمتر از همه، دولتها باید از این موقعیتها برای سختگیرتر کردن قوانین حفظ حریم خصوصی و محافظت از دادههای کاربران در حوزه هوش مصنوعی استفاده کنند و شرکتها را مجبور کنند که از ابتدا مطابق با استانداردهای شفاف و ایمن طراحی کنند—نه اینکه پس از وقوع رسوایی، بهدنبال اصلاح بروند.
آزمون واقعی برای هوش مصنوعی
در نهایت، آزمون واقعی برای فناوری هوش مصنوعی این نیست که چقدر سریع میتواند به سوالات پاسخ دهد، بلکه این است که با چه دقتی از لحظات خصوصی و شخصی ما محافظت میکند. وقتی با این سیستمها صحبت میکنیم، فقط متن تولید نمیکنیم، بلکه تکههایی از زندگیمان را به اشتراک میگذاریم—چیزی که نباید با آن بازی کرد.
source