هشدار به کاربران ChatGPT! اطلاعات جیمیل شما در خطر است!

هشدار به کاربران ChatGPT! اطلاعات جیمیل شما در خطر است! آسیب‌پذیری ShadowLeak از طریق عامل Deep Research چت‌بات ChatGPT، اطلاعات جیمیل کاربران را فاش می‌کند! محققان امنیت سایبری یک آسیب‌پذیری بدون کلیک در ChatGPT شرکت OpenAI را کشف کرده‌اند که به مهاجم اجازه می‌دهد با ارسال یک ایمیل دستکاری‌شده، داده‌های حساس صندوق ورودی جیمیل کاربر را افشا کند
دیدگاه ها

 آسیب‌پذیری ShadowLeak از طریق عامل Deep Research چت‌بات ChatGPT، اطلاعات جیمیل کاربران را فاش می‌کند! محققان امنیت سایبری یک آسیب‌پذیری بدون کلیک در ChatGPT شرکت OpenAI را کشف کرده‌اند که به مهاجم اجازه می‌دهد با ارسال یک ایمیل دستکاری‌شده، داده‌های حساس صندوق ورودی جیمیل کاربر را افشا کند. این آسیب‌پذیری که در عامل جستجوی عمیق (Deep Research) چت‌جی‌پی‌تی قرار دارد، بدون نیاز به هیچ اقدامی از جانب کاربر عمل می‌کند! در ادامه با گزارش بلاگ تخصصی فالنیک (falnic.com) از این بدافزار خطرناک همراه باشید!

فالنیک ایران اچ پی با 30 سال تجربه مرجع تخصصی سرور، شبکه، مایکروسافت CRM و خدمات IT در ایران است که قوی‌ترین زیرساخت IT را برای شما فراهم می‌کند. ما با رویکرد Total Solution صفر تا صد تجهیزات، خدمات و زیرساخت IT را با گارانتی معتبر و خدمات پس از فروش ارائه می‌کنیم تا شبکه‌ای امن، پرسرعت و پایدار را تجربه کنید. برای مشاهده محصولات و خدمات فالنیک؛ کلیک کنید.

آسیب‌پذیری بدون کلیک در ChatGPT چگونه عمل می‌کند؟

آسیب‌پذیری بدون کلیک در ChatGPT

شرکت امنیتی Radware این نوع جدید از حمله را با نام ShadowLeak نام‌گذاری کرده است. پس از افشای مسئولانه این نقص در تاریخ 18 ژوئن 2025، شرکت OpenAI در اوایل آگوست اعلام کرد که این نقص را برطرف کرده است؛ هر چند تا به امروز گزارش‌هایی مبنی بر آسیب دیدن کاربران از این نقص منتشر شده است و به‌نظر می‌رسد مشکل همچنان پابرجاست! در مقاله Radware درباره ShadowLeak، محققان امنیتی این شرکت اظهار داشته‌اند: «این حمله که از نوع بدون کلیک (Zero-Click) است، از تزریق غیرمستقیم دستورات استفاده می‌کند. این دستورات با ترفندهایی مانند فونت‌های بسیار کوچک، متن سفید روی سفید یا ترفندهای چیدمان در HTML ایمیل مخفی می‌شوند و ممکن است کاربر هرگز متوجه آنها نشود؛ اما عامل هوش مصنوعی این دستورات را می‌خواند و از آنها اطاعت می‌کند». آنها افزودند: «برخلاف حملات قبلی که برای فعال‌سازی نشت داده به رندر شدن تصویر در سمت کاربر وابسته بودند، این حمله جدید داده‌ها را به‌طور مستقیم از زیرساخت ابری OpenAI نشت می‌دهد. این موضوع باعث شده تا این حمله برای مکانیزم‌های دفاعی محلی یا سازمانی کاملاً نامرئی باشد». در حمله‌ای که Radware تشریح کرده، مهاجم یک ایمیل به‌ظاهر بی‌خطر به قربانی ارسال می‌کند که حاوی دستورات نامرئی (با استفاده از متن سفید روی سفید یا ترفندهای CSS) است. این دستورالعمل‌ها، عامل هوش مصنوعی را وادار می‌کند تا اطلاعات شخصی قربانی را از سایر ایمیل‌های موجود در صندوق ورودی او استخراج و آنها را به یک سرور خارجی منتقل کند. بنابراین زمانی‌که قربانی از دیپ ریسرچ چت GPT می‌خواهد تا ایمیل‌های Gmail او را تحلیل کند، عامل هوش مصنوعی دستورات موجود در ایمیل مخرب را پردازش می‌کند و باعث تزریق غیرمستقیم آنها می‌شود. در نهایت، عامل هوش مصنوعی نتایج را با استفاده از ابزار browser.open() و به‌صورت رمزنگاری‌شده Base64، برای مهاجم ارسال می‌کند.

ChatGPT برای حل کپچاها فریب داده شده است!

کپچاهای ChatGPT

این افشا درحالی منتشر شده که پلتفرم امنیت هوش مصنوعی SPLX به‌تازگی نشان داده است که کپچاهای ChatGPT ممکن است فریب بخورند! در مقاله SPLX، محققان این شرکت اعلام کرده‌اند که پرامپت‌هایی که به‌صورت هوشمندانه طراحی شده‌اند، علاوه بر مسموم‌سازی زمینه‌ای، می‌توانند موانع حفاظتی داخلی عامل‌های ChatGPT را دور بزنند و کپچاهای مبتنی بر تصویر را که برای تأیید انسان بودن کاربر طراحی شده‌اند، حل کنند. عامل ChatGPT نه‌تنها کپچاهای ساده، بلکه کپچاهای مبتنی بر تصویر را نیز حل کرد؛ حتی اشاره‌گر (cursor) خود را جوری تنظیم کرد تا رفتار انسانی را تقلید کند. پس مهاجمان موفق شده‌اند تا کنترل‌های حفاظتی واقعی را به‌عنوان «جعلی» بازتعریف کنند و آنها را دور بزنند.

برای مقابله با آسیب‌پذیری بدون کلیک در ChatGPT چه باید کرد؟

در حال حاضر، تنها کاری که باید کرد این است که ایمیل‌های ارسالی از جانب عامل ChatGPT را باز نکنید و از این عامل هوش مصنوعی برای تحلیل ایمیل‌های موجود در اینباکس Gmail خود استفاده نکنید. باید منتظر بمانیم تا این نقص به‌طور کامل از جانب OpenAI برطرف شود.

از
2
رای

دیدگاه ها