هشدار مدیرعامل OpenAI: محتوای گفتگو با چتباتها میتواند در دادگاه استفاده شود
سم آلتمن، مدیرعامل OpenAI، در یک بیانیه غافلگیرکننده در «اجلاس سیاست فناوری 2025» اعلام کرد: مکالمات شما با چتباتهایی مانند ChatGPT ممکن است در شرایط خاص به عنوان مدرک قانونی در دادگاه مورد استفاده قرار گیرد!
این خبر میتواند دیدگاه بسیاری از کاربران را نسبت به چتباتها تغییر دهد، چرا که اغلب مردم این ابزارها را شخصی و امن میدانند و بدون احتیاط، اطلاعات خصوصی یا حتی محرمانه خود را با آنها به اشتراک میگذارند. اما آلتمن تاکید کرد که این مکالمات ذخیره میشوند و در صورت درخواست قانونی، میتوانند به نهادهای قضایی ارائه شوند.
چتهای هوش مصنوعی؛ ردپای دیجیتالی شما
آلتمن با قاطعیت توضیح داد: «چتهای شما با هوش مصنوعی درست مثل ایمیل یا پیامک، سوابق دیجیتالی هستند که میتوانند به عنوان مدرک احضار شوند.» این جمله، ذهن بسیاری را درگیر کرده است. در دنیای امروز، پیامهای دیجیتال یکی از منابع اصلی مدارک قضایی محسوب میشوند و حالا با رشد هوش مصنوعی، چتباتها نیز به این جمع اضافه شدهاند.
یعنی اگر گفتوگوی شما با ChatGPT به یک پرونده حقوقی مرتبط تشخیص داده شود، دادگاه میتواند از OpenAI بخواهد متن آن را ارائه دهد؛ دقیقاً همانطور که برای مکالمات تلفنی یا ایمیلها چنین درخواستی میشود.
سیاستهای حریم خصوصی OpenAI چه میگوید
بر اساس سیاستهای رسمی OpenAI، دادههای کاربران ممکن است برای آموزش مدلهای هوش مصنوعی، بهبود کیفیت و حفظ ایمنی ذخیره شوند. اما نکته مهمتر این است که این شرکت در صورت دریافت درخواست قانونی رسمی، موظف به همکاری با مقامات قضایی خواهد بود. این یعنی حریم خصوصی شما تا زمانی که قانون به آن ورود نکرده، پابرجاست، اما در برابر حکم قضایی، اطلاعات شما قابل دسترسی خواهد بود.
چگونه از اطلاعاتمان در برابر هوش مصنوعی محافظت کنیم
با توجه به این هشدارها، اگر از چتباتها استفاده میکنید، این توصیهها را جدی بگیرید تا از اطلاعات شخصی خود محافظت کنید:
از به اشتراک گذاشتن اطلاعات خیلی شخصی یا حساس خودداری کنید.
فرض را بر این بگذارید که چتها قابل بازیابی هستند. هرگز چیزی نگویید که از افشای آن نگران هستید.
سیاستهای حریم خصوصی را کامل بخوانید. این سیاستها، قواعد بازی را مشخص میکنند.
تنظیمات حریم خصوصی موجود را فعال کنید. بسیاری از چتباتها گزینههایی برای کنترل بیشتر روی دادههای شما دارند.
لینا مورالس، کارشناس حوزه داده، نیز تاکید میکند: «هیچ ارتباط دیجیتالی کاملاً خصوصی نیست. کاربران باید این واقعیت را بپذیرند و بر اساس آن رفتار کنند.»
هوش مصنوعی بیخطر نیست، اگر بیاحتیاط باشید
هشدار سم آلتمن بسیار ساده اما حیاتی است: هر چیزی که در چت با هوش مصنوعی مینویسید، ممکن است در آینده مقابلتان قرار بگیرد، حتی در دادگاه. در جهانی که گفتوگوهای ما به طور فزایندهای دیجیتالی شدهاند، حریم خصوصی دیگر فقط یک حق نیست؛ بلکه یک مسئولیت شخصی است.