رسانه اینترنتی فانیلی

ادعای OpenAI: هکرهای چینی و ایرانی در حملات سایبری و فیشینگ از ChatGPT و مدل‌های زبانی استفاده می‌کنند

OpenAI وقوع بیش از ۲۰ حمله‌ی سایبری را تأیید کرده است که همگی توسط ChatGPT طراحی شده‌اند. گزارش OpenAI نشان می‌دهد که هوش مصنوعی مولد برای اجرای حملات فیشینگ هدفمند، رفع باگ و توسعه‌ی بدافزار و سایر فعالیت‌های مخرب مورد استفاده قرار می‌گیرد.

گزارش جدید OpenAI، دو حمله‌ی سایبری را تأیید می‌کند که با بهره‌گیری از مدل‌های زبانی بزرگ و ChatGPT انجام شده‌اند. یکی از حملات، شرکت Cisco Talos را هدف قرار داد؛ حمله‌ای که توسط هکرهای چینی اجرا و در آن از روش فیشینگ هدفمند موسوم‌ به SweetSpecter استفاده شد که شامل یک فایل فشرده‌ی زیپ حاوی محتوای مخرب می‌شود.

در صورت دانلود و بازکردن فایل، زنجیره‌ای از ویروس‌ها در سیستم کاربر ایجاد می‌شود. OpenAI کشف کرده که بدافزار SweetSpecter با استفاده از چندین حساب کاربری در ChatGPT و به منظور توسعه‌ی اسکریپت‌ها و شناسایی آسیب‌پذیری‌ها در سیستم‌، با بهره‌گیری از ابزارهای یادگیری ماشین طراحی شده است.

طبق ادعای OpenAI، دومین حمله‌ی سایبری توسط گروهی هکری مستقر در ایران انجام شد. این گروه با بهره‌گیری از ChatGPT، آسیب‌پذیری‌های سیستم‌عامل macOS را شناسایی و اقدام به سرقت رمزعبور کاربران کرد. در حمله‌ی سوم، گروه هکری دیگری با استفاده از ChatGPT، بدافزاری برای سیستم‌عامل اندروید توسعه داد که قادر است لیست مخاطبین، سوابق تماس و تاریخچه‌ی مرورگر را سرقت، موقعیت دقیق دستگاه را شناسایی و به فایل‌های موجود در دستگاه‌های آلوده دسترسی پیدا کند.

تمامی حملات سایبری مذکور، با بهره‌گیری از روش‌های موجود توسعه‌ی بدافزار انجام شده‌اند و بر اساس گزارش‌ها هیچ مدرکی مبنی‌بر ایجاد بدافزارهای نوین و پیچیده توسط ChatGPT یافت نشده است.

مقالات مرتبط
  • هکر باهوش ChatGPT را فریب داد و حواشی زیادی به پا کرد
  • هکرها از چت‌بات هوش مصنوعی بینگ برای سرقت اطلاعات شخصی کاربران استفاده می‌کنند

چنین حملاتی نشان می‌دهند که فریب‌دادن سیستم‌های هوش مصنوعی برای تولید ابزارهای مخرب بسیار ساده است و هکرها به‌راحتی می‌توانند از این قابلیت سوءاستفاده کنند؛ اقدامی که چالش جدیدی را در حوزه‌ی امنیت سایبری ایجاد می‌کند، چرا که هر فردی با دانش فنی لازم می‌تواند ChatGPT را به سمت تولید محتوای مخرب سوق دهد. محققان امنیت سایبری به‌طور مداوم در تلاش‌اند تا آسیب‌پذیری‌های موجود را شناسایی و برطرف کنند.

خالق ChatGPT می‌گوید با هدف جلوگیری از سوءاستفاده از هوش مصنوعی، به بهبود و ارتقای مستمر مدل‌های خود ادامه خواهد داد. در همین راستا، OpenAI با تیم‌های داخلی ایمنی و امنیت همکاری نزدیکی برقرار خواهد کرد و متعهد شده است که یافته‌های تحقیقاتی خود را با سایر فعالان صنعت و جامعه‌ی علمی به اشتراک بگذارد و از وقوع چنین رویدادهای نامطلوبی جلوگیری کند.

با دوستان خود به اشتراک بگذارید

تازه ترین مطالب
فرهنگی هنری,ورزشی,گردشگری,آموزشی

تازه ها

رویدادهای ویژه

به زودی رویدادهای ویژه در این مکان برای شما قابل نمایش خواهد بود.