هشدار به کاربران ChatGPT! اطلاعات جیمیل شما در خطر است!

آسیبپذیری ShadowLeak از طریق عامل Deep Research چتبات ChatGPT، اطلاعات جیمیل کاربران را فاش میکند! محققان امنیت سایبری یک آسیبپذیری بدون کلیک در ChatGPT شرکت OpenAI را کشف کردهاند که به مهاجم اجازه میدهد با ارسال یک ایمیل دستکاریشده، دادههای حساس صندوق ورودی جیمیل کاربر را افشا کند. این آسیبپذیری که در عامل جستجوی عمیق (Deep Research) چتجیپیتی قرار دارد، بدون نیاز به هیچ اقدامی از جانب کاربر عمل میکند! در ادامه با گزارش فالنیک از این بدافزار خطرناک همراه باشید!
فالنیک ایران اچ پی با ۳۰ سال تجربه مرجع تخصصی سرور، شبکه، مایکروسافت CRM و خدمات IT در ایران است که قویترین زیرساخت IT را برای شما فراهم میکند. ما با رویکرد Total Solution صفر تا صد تجهیزات، خدمات و زیرساخت IT را با گارانتی معتبر و خدمات پس از فروش ارائه میکنیم تا شبکهای امن، پرسرعت و پایدار را تجربه کنید.
آسیبپذیری بدون کلیک در ChatGPT چگونه عمل میکند؟
شرکت امنیتی Radware این نوع جدید از حمله را با نام ShadowLeak نامگذاری کرده است. پس از افشای مسئولانه این نقص در تاریخ 18 ژوئن 2025، شرکت OpenAI در اوایل آگوست اعلام کرد که این نقص را برطرف کرده است؛ هر چند تا به امروز گزارشهایی مبنی بر آسیب دیدن کاربران از این نقص منتشر شده است و بهنظر میرسد مشکل همچنان پابرجاست!
در مقاله Radware درباره ShadowLeak، محققان امنیتی این شرکت اظهار داشتهاند: «این حمله که از نوع بدون کلیک (Zero-Click) است، از تزریق غیرمستقیم دستورات استفاده میکند. این دستورات با ترفندهایی مانند فونتهای بسیار کوچک، متن سفید روی سفید یا ترفندهای چیدمان در HTML ایمیل مخفی میشوند و ممکن است کاربر هرگز متوجه آنها نشود؛ اما عامل هوش مصنوعی این دستورات را میخواند و از آنها اطاعت میکند».
آنها افزودند: «برخلاف حملات قبلی که برای فعالسازی نشت داده به رندر شدن تصویر در سمت کاربر وابسته بودند، این حمله جدید دادهها را بهطور مستقیم از زیرساخت ابری OpenAI نشت میدهد. این موضوع باعث شده تا این حمله برای مکانیزمهای دفاعی محلی یا سازمانی کاملاً نامرئی باشد».
در حملهای که Radware تشریح کرده، مهاجم یک ایمیل بهظاهر بیخطر به قربانی ارسال میکند که حاوی دستورات نامرئی (با استفاده از متن سفید روی سفید یا ترفندهای CSS) است. این دستورالعملها، عامل هوش مصنوعی را وادار میکند تا اطلاعات شخصی قربانی را از سایر ایمیلهای موجود در صندوق ورودی او استخراج و آنها را به یک سرور خارجی منتقل کند.
بنابراین زمانیکه قربانی از دیپ ریسرچ چت GPT میخواهد تا ایمیلهای Gmail او را تحلیل کند، عامل هوش مصنوعی دستورات موجود در ایمیل مخرب را پردازش میکند و باعث تزریق غیرمستقیم آنها میشود. در نهایت، عامل هوش مصنوعی نتایج را با استفاده از ابزار browser.open() و بهصورت رمزنگاریشده Base64، برای مهاجم ارسال میکند.
ChatGPT برای حل کپچاها فریب داده شده است!
این افشا درحالی منتشر شده که پلتفرم امنیت هوش مصنوعی SPLX بهتازگی نشان داده است که کپچاهای ChatGPT ممکن است فریب بخورند! در مقاله SPLX، محققان این شرکت اعلام کردهاند که پرامپتهایی که بهصورت هوشمندانه طراحی شدهاند، علاوه بر مسمومسازی زمینهای، میتوانند موانع حفاظتی داخلی عاملهای ChatGPT را دور بزنند و کپچاهای مبتنی بر تصویر را که برای تأیید انسان بودن کاربر طراحی شدهاند، حل کنند.
عامل ChatGPT نهتنها کپچاهای ساده، بلکه کپچاهای مبتنی بر تصویر را نیز حل کرد؛ حتی اشارهگر (cursor) خود را جوری تنظیم کرد تا رفتار انسانی را تقلید کند. پس مهاجمان موفق شدهاند تا کنترلهای حفاظتی واقعی را بهعنوان «جعلی» بازتعریف کنند و آنها را دور بزنند.
برای مقابله با آسیبپذیری بدون کلیک در ChatGPT چه باید کرد؟
در حال حاضر، تنها کاری که باید کرد این است که ایمیلهای ارسالی از جانب عامل ChatGPT را باز نکنید و از این عامل هوش مصنوعی برای تحلیل ایمیلهای موجود در اینباکس Gmail خود استفاده نکنید. باید منتظر بمانیم تا این نقص بهطور کامل از جانب OpenAI برطرف شود.