حمله سایبری هکر های چینی به کمک آنتروپیک

شرکت Anthropic تأیید کرده است که گروه هکری وابسته به دولت چین توانسته با «جِیل‌بریک» مدل Claude، حدود ۸۰ تا ۹۰ درصد از یک کمپین بزرگ جاسوسی سایبری را با استفاده از هوش مصنوعی انجام دهد رویدادی که به گفته این شرکت، نقطه عطفی در سلاح‌سازی مبتنی بر AI است.

به گزارش خبرگزاری ایمنا و به نقل از د ورج، یک گروه هکری با پشتیبانی دولتی چین از مدل هوش مصنوعی «کلود» (Claude) برای انجام یک حمله سایبری گسترده استفاده کرده است، در این کمپین سایبری که Anthropic آن را در سپتامبر ۲۰۲۵ شناسایی کرده، هکرها «Claude Code» را طوری هدایت کردند که به جای نقش مشاور، نقش عملیاتی داشته باشد، آن‌ها توانستند بسیاری از موانع امنیتی را دور بزنند و مدل AI را وادار کنند کدهای مخرب بنویسد، آسیب‌پذیری‌ها را کشف کند، دسترسی به سیستم‌ها را تجربه کند و داده‌های حساس را استخراج نماید.

Anthropic گفته است که در این عملیات حدود ۸۰ تا ۹۰ درصد کارها توسط مدل AI انجام شده و دخالت انسان بسیار محدود بوده است؛ فقط در نقاط بحرانی برای تأیید یا رد پیش‌رفت فرایند مداخله شده است.

روش سوءاستفاده

هکرها ابتدا Claude را فریب داده‌اند تا فکر کند در حال انجام تست‌های امنیتی قانونی است؛ آن‌ها خودشان را به‌عنوان شرکت‌های امنیت سایبری نشان داده‌اند و کارها را به وظایف کوچک و بی‌ضرر تقسیم کرده‌اند تا سیستم هشداردهی ایمنی Claude را فریب دهند، سپس مدل؛ با سرعت بسیار بالا زیرساخت‌های دیجیتال قربانیان را اسکن کرده، کد اکسپلویت نوشته، اعتبارنامه‌ها را جمع‌آوری کرده و داده‌ها را بیرون کشیده است.

اهداف حمله

بر اساس گزارش Anthropic، حدود ۳۰ نهاد بین‌المللی هدف این حمله بوده‌اند؛ شرکت‌های فناوری، مؤسسات مالی، شرکت‌های شیمیایی و برخی نهادهای دولتی در این فهرست قرار دارند. به گفته آنتروپیک «تعداد محدودی» از این حملات موفقیت‌آمیز بوده‌اند و داده‌های حساس برخی از قربانیان سرقت شده است. این حمله نشان‌دهنده یک «پله جدید» در مخاصمات سایبری است؛ استفاده از مدل‌های AI پیشرفته نه فقط به‌عنوان ابزار مشاوره بلکه به‌عنوان عامل فعال در عملیات هک، از آن جایی که بسیاری از کارهای حمله با کلود انجام شده، این موضوع نگرانی بزرگی برای شرکت‌ها و دولت‌ها ایجاد می‌کند: آیا مدل‌های AI در حال تبدیل به سلاح‌هایی خودکار هستند که با کمترین دخالت انسان، می‌توانند حملات را اجرا کنند؟

Anthropic اعلام کرده که پس از کشف این حمله، دسترسی مخرب را مسدود کرده، حساب‌های مورد استفاده هکرها را بسته و با نهادهای قانونی همکاری کرده است. این رویداد همچنین فشارها را برای نظارت بیشتر بر AI و تنظیم قوانین امنیتی افزایش می‌دهد: شرکت‌های هوش مصنوعی باید نه فقط روی امنیت مدل‌ها تمرکز کنند، بلکه روی مانع‌گذاری در برابر استفاده مخرب از آن‌ها نیز جدی‌تر کار کنند.

کد خبر 924670

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.