آنتروپیک: هوش مصنوعی «کلاد» ابزار جرایم سایبری شده است

اعتراف «آنتروپیک» به سوءاستفاده از هوش مصنوعی خود برای انجام جرایم سایبری

آخرین ویرایش در 3 ماه توسط آوا رحمتی

شرکت توسعه‌دهنده مدل هوش مصنوعی «کلاد»، آنتروپیک، به‌طور رسمی اعلام کرد که مجرمان سایبری از قابلیت‌های این پلتفرم برای اجرا و تسریع عملیات‌های پیچیده جرایم سایبری استفاده کرده‌اند.

در گزارش تازه آنتروپیک آمده است که یک گروه حمله‌کننده موسوم به «vibe hacking» با تکیه بر «کلاد کد»—ابزار تولید کد خودکار این شرکت—توانسته است اطلاعات دست‌کم ۱۷ سازمان از جمله نهادهای درمانی، خدمات اورژانسی و ادارات دولتی را جمع‌آوری کرده و باج‌های شش‌رقمی مطالبه کند. این مهاجمان از هوش مصنوعی برای شناسایی نقاط ضعف شبکه‌ها، خودکارسازی نفوذ به سامانه‌ها و حتی نگارش متن درخواست باج استفاده کردند.

اعتراف «آنتروپیک» به سوءاستفاده از هوش مصنوعی خود برای انجام جرایم سایبری
اعتراف «آنتروپیک» به سوءاستفاده از هوش مصنوعی خود برای انجام جرایم سایبری

آنتروپیک می‌گوید علاوه بر تدوین سند فنی این حمله و ارایه آن به مقامات قانونی، حساب‌های کاربری مرتبط با سوءاستفاده مسدود شده و یک فیلتر خودکار برای تشخیص زودهنگام الگوهای مشابه راه‌اندازی گردیده است. هرچند این شرکت جزئیات فنی مکانیزم‌های جدید شناسایی را منتشر نکرده، اما تأکید کرده است که رویکردهای متشکل از یادگیری ماشین و تحلیل بیگ‌دیتا در دستور کار قرار گرفته‌اند.

گزارش آنتروپیک همچنین فاش می‌کند که مدل «کلاد» در دو سناریوی دیگر—از جمله یک پروژه استخدام جعلی در کره شمالی و تولید خودکار باج‌افزار—هم نقش داشته است. این موارد نشان می‌دهند ماهیت واکنش‌پذیر و خودآموز هوش مصنوعی، امکان جایگزینی تیم‌های تخصصی را فراهم آورده و مهارت فنی را از موانع اصلی هکرها حذف کرده است.

این نخستین بار نیست که یک پلتفرم مولد هوش مصنوعی در خدمت خلافکاران قرار می‌گیرد. ماه گذشته OpenAI نیز اذعان کرد که گروه‌هایی از چین و کره شمالی با بهره‌گیری از هوش مصنوعی آن برای اشکال‌زدایی کد، شناسایی اهداف تازه و آماده‌سازی ایمیل‌های فیشینگ اقدام کرده‌اند. بدین منظور OpenAI دسترسی هکرها به سرویس‌های خود را مسدود کرد.

کارشناسان امنیت سایبری معتقدند سوءاستفاده از سیستم‌های هوش مصنوعی در حوزه جرایم سایبری نشان می‌دهد تنظیم مقررات و استانداردهای اخلاقی برای تولید و استفاده از این فناوری‌ها ضروری است. از جمله راهکارهای پیشنهادشده می‌توان به توسعه الگوریتم‌های نظارتی بیرونی، الزام شرکت‌ها به اجرای ممیزی‌های امنیتی دوره‌ای و تقویت همکاری بین‌المللی برای ردیابی ردپاهای دیجیتال اشاره کرد.

آنتروپیک نیز اعلام کرده که در گام بعدی در حال مذاکره با نهادهای استانداردسازی بین‌المللی برای تعریف چارچوب‌هایی در زمینه استفاده مسئولانه از هوش مصنوعی است. به گفته این شرکت، تدوین «حکمرانی فناورانه» می‌تواند جلوی بروز سوءاستفاده‌های بیش‌تر را بگیرد و هم‌زمان نوآوری و توسعه را تداوم بخشد.

مجله خبری آوای زندگی

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *