هشدار به کاربران ChatGPT! اطلاعات جیمیل شما در خطر است!

آسیبپذیری ShadowLeak از طریق عامل Deep Research چتبات ChatGPT، اطلاعات جیمیل کاربران را فاش میکند! محققان امنیت سایبری یک آسیبپذیری بدون کلیک در ChatGPT شرکت OpenAI را کشف کردهاند که به مهاجم اجازه میدهد با ارسال یک ایمیل دستکاریشده، دادههای حساس صندوق ورودی جیمیل کاربر را افشا کند. این آسیبپذیری که در عامل جستجوی عمیق (Deep Research) چتجیپیتی قرار دارد، بدون نیاز به هیچ اقدامی از جانب کاربر عمل میکند! در ادامه با گزارش فالنیک از این بدافزار خطرناک همراه باشید!
فالنیک ایران اچ پی با ۳۰ سال تجربه مرجع تخصصی سرور، شبکه، مایکروسافت CRM و خدمات IT در ایران است که قویترین زیرساخت IT را برای شما فراهم میکند. ما با رویکرد Total Solution صفر تا صد تجهیزات، خدمات و زیرساخت IT را با گارانتی معتبر و خدمات پس از فروش ارائه میکنیم تا شبکهای امن، پرسرعت و پایدار را تجربه کنید.
آسیبپذیری بدون کلیک در ChatGPT: عملکرد، ریسکها و راهکارهای پیشگیری
در سالهای اخیر، سیستمهای هوش مصنوعی به ابزارهای اصلی کاربران برای تولید محتوا، تحلیل داده و تعاملات دیجیتال تبدیل شدهاند. با این حال، همانطور که در فناوریهای جدید همواره رخ میدهد، امنیت این سیستمها چالشهای جدی دارد. یکی از جدیدترین نمونهها، آسیبپذیری بدون کلیک در ChatGPT است که توسط شرکت امنیتی Radware شناسایی شده و با نام ShadowLeak معرفی شده است. این آسیبپذیری نوعی حمله Zero-Click است که اجازه میدهد مهاجم بدون هیچ اقدام مستقیم از سوی کاربر، دادههای حساس او را نشت دهد.
۱. پیشینه و افشای ShadowLeak
Radware، شرکت فعال در حوزه امنیت سایبری، در مقالهای در تاریخ ۱۸ ژوئن ۲۰۲۵ این نقص را بهصورت مسئولانه افشا کرد. بر اساس گزارشها، OpenAI اوایل آگوست همان سال اعلام کرد که آسیبپذیری را رفع کرده است؛ اما برخی گزارشها حاکی از آن است که امکان سوءاستفاده همچنان وجود دارد و این نقص هنوز بهطور کامل تحت کنترل نیست.
هدف از افشای مسئولانه، آگاهسازی جامعه و فراهم کردن فرصت برای رفع آسیبپذیری قبل از استفاده مخرب مهاجمان بود. این افشا اهمیت بالای امنیت سیستمهای مبتنی بر هوش مصنوعی ابری را به خوبی نشان میدهد.
۲. نحوه عملکرد حمله ShadowLeak
این حمله به شکل زیر عمل میکند:
- ShadowLeak از تزریق غیرمستقیم دستورات مخرب بهره میبرد.
- این دستورات میتوانند بهصورت متن سفید روی سفید، فونتهای بسیار کوچک، تغییرات پیچیده HTML یا ترفندهای CSS پنهان شوند.
- کاربر معمولاً متوجه هیچ فعالیت غیرعادی نمیشود، اما عامل هوش مصنوعی ChatGPT این دستورات را پردازش میکند و اجرا میکند.
ویژگی مهم این حمله این است که برخلاف حملات قبلی، که برای فعال شدن نیاز به نمایش تصویر یا تعامل کاربر داشتند، ShadowLeak دادهها را مستقیماً از زیرساخت ابری OpenAI نشت میدهد. این موضوع باعث میشود که راهکارهای امنیتی محلی و سازمانی هیچ اثری از حمله مشاهده نکنند.
۳. سناریوی عملی حمله
Radware یک نمونه عملی از این حمله را شرح داده است:
- ارسال ایمیل مخرب: مهاجم یک ایمیل به ظاهر بیضرر ارسال میکند که شامل دستورات مخفی است.
- فعالسازی دستورات توسط ChatGPT: هنگامی که کاربر از ChatGPT میخواهد ایمیلهای Gmail خود را تحلیل کند، عامل هوش مصنوعی این دستورات را پردازش میکند.
- استخراج دادهها: اطلاعات شخصی از سایر ایمیلها استخراج شده و آماده ارسال میشوند.
- انتقال دادهها: دادهها به یک سرور خارجی منتقل میشوند و معمولاً با استفاده از رمزنگاری Base64 محافظت میشوند تا شناسایی فعالیت مهاجم سختتر شود.
- بدون اطلاع کاربر: همه این فرآیندها بدون کلیک یا تعامل مستقیم کاربر انجام میشود و قربانی متوجه نشت اطلاعات نمیشود.
در این حمله، ChatGPT عملاً به یک واسط برای انتقال دادههای شخصی تبدیل میشود.
4. فریب کپچاها توسط ChatGPT
علاوه بر ShadowLeak، پژوهشهای شرکت امنیتی SPLX نشان دادهاند که سیستمهای حفاظتی داخلی و کپچاهای تصویری نیز ممکن است توسط هوش مصنوعی دور زده شوند.
- پرامپتهای هوشمندانه میتوانند موانع حفاظتی داخلی را دور زده و کپچاها را حل کنند.
- ChatGPT توانسته رفتار انسانی را با تغییر مکان اشارهگر موس، زمانبندی حرکات و شبیهسازی رفتار کاربر تقلید کند.
- این موضوع نشان میدهد که کپچاهای معمولی، حتی آنهایی که برای تأیید انسان بودن طراحی شدهاند، همیشه کافی نیستند و مهاجمان میتوانند با تکنیکهای پیشرفته آنها را دور بزنند.
بنابراین حتی کاربران هوشیار هم ممکن است بدون اطلاع، در معرض خطر نشت دادههای شخصی قرار گیرند.
۵. ریسکها و پیامدهای امنیتی
حمله ShadowLeak و توانایی دور زدن کپچاها، مجموعهای از ریسکهای امنیتی را ایجاد میکنند:
- نشت اطلاعات شخصی: ایمیلها، مخاطبین و محتوای پیامهای خصوصی میتوانند به دست مهاجم برسند.
- نفوذ به حسابهای کاربری: دستورات مخرب میتوانند به عامل هوش مصنوعی دستور دهند تا دادههای حساس را استخراج و منتقل کند.
- دور زدن کنترلهای حفاظتی: کاربران و سازمانها ممکن است تصور کنند که سیستمها امن هستند، در حالی که دادهها بدون اطلاع نشت میشوند.
- استفاده از دادهها در حملات بعدی: اطلاعات به دست آمده میتواند برای فیشینگ، کلاهبرداری یا دسترسی غیرمجاز به سایر حسابها استفاده شود.
این آسیبپذیری نشان میدهد که حتی سیستمهای هوش مصنوعی مشهور هم میتوانند ابزاری برای نشت دادهها بدون دخالت مستقیم کاربر باشند.
۶. راهکارهای پیشگیری
تا زمانی که OpenAI این نقص را بهطور کامل رفع کند، اقدامات احتیاطی زیر ضروری هستند:
- ایمیلهای مشکوک را باز نکنید: بهویژه ایمیلهایی که از طرف ChatGPT یا منابع ناشناخته ارسال شدهاند.
- استفاده محدود از ChatGPT برای تحلیل دادههای حساس: از هوش مصنوعی برای تحلیل ایمیلها یا اطلاعات شخصی خود استفاده نکنید.
- بهروزرسانی و مراقبت از حسابها: سیستمها و برنامههای خود را بهروز نگه دارید و هرگونه فعالیت مشکوک را بررسی کنید.
- آموزش کاربران: اطلاعرسانی و آموزش کاربر نهایی برای شناسایی فعالیتهای غیرعادی و رعایت اصول امنیت دیجیتال ضروری است.
۷. اهمیت امنیت هوش مصنوعی ابری
این رخداد نشان میدهد که امنیت سیستمهای هوش مصنوعی ابری تنها محدود به کاربران نیست و زیرساختهای ارائهدهنده سرویس نیز میتوانند هدف حمله قرار گیرند.
- سیستمهای ابری ممکن است دادهها را پردازش کنند و حتی اگر کاربران اقدامات احتیاطی انجام دهند، حملات از طریق دستورات مخفی قابل اجرا هستند.
- سازمانها و توسعهدهندگان هوش مصنوعی باید مکانیسمهای مانیتورینگ و تشخیص فعالیتهای غیرعادی را در سطح زیرساخت پیادهسازی کنند.
جمعبندی
حمله ShadowLeak نمونهای از حملات پیشرفته بدون کلیک است که نشان میدهد حتی سیستمهای هوش مصنوعی پیشرفته هم میتوانند به ابزار نشت داده تبدیل شوند.
- این حمله مستقیماً دادهها را از زیرساخت ابری نشت میدهد و کاربران معمولاً متوجه نمیشوند.
- حتی کپچاهای تصویری و کنترلهای داخلی ممکن است فریب بخورند.
- تا زمان رفع کامل نقص، کاربران باید از تحلیل ایمیلها یا دادههای حساس توسط ChatGPT خودداری کنند و مراقبتهای امنیتی لازم را رعایت کنند.
این تجربه بر اهمیت امنیت سایبری در حوزه هوش مصنوعی تأکید میکند و نشان میدهد که دفاعهای سنتی و محلی برای حفاظت کامل کافی نیستند. توجه به آموزش کاربران، محدود کردن دسترسی هوش مصنوعی به دادههای حساس و بهروزرسانی مداوم سیستمها، کلید کاهش ریسکها در این زمینه است.
