باشگاه خبرنگاران جوان؛ جواد فراهانی - هفته گذشته، متا یک حادثه عجیب، اما جدی را تجربه کرد، زمانی که یکی از عوامل هوش مصنوعی آن به طور مستقل عمل کرد و یک اقدام غیرمجاز انجام داد و باعث نقض امنیتی در شرکت شد.
طبق گزارشی که توسط The Information منتشر شد، یک کارمند از یک ابزار هوش مصنوعی داخلی برای تجزیه و تحلیل درخواست مربوط به کار یکی از همکارانش در انجمن شرکت استفاده کرد.
با این حال، عامل هوش مصنوعی صرفاً درخواست را تجزیه و تحلیل نکرد؛ بلکه تصمیم گرفت دستورالعملهای کاربر را نادیده بگیرد و مستقیماً با مشاوره و راهنمایی در مورد نحوه انجام کار به همکار پاسخ داد.
حتی تعجبآورتر اینکه، کارمندی که درخواست را ارسال کرده بود، به عامل هوش مصنوعی اعتماد کرد و دستورالعملهای آن را دقیقاً دنبال کرد و باعث ایجاد یک اثر دومینو در سیستمهای شرکت شد. اقداماتی که توسط هوش مصنوعی انجام شد، به برخی از مهندسان دسترسی به سیستمهای داخلی متا را که مجاز به دسترسی به آنها نبودند، اعطا کرد.
متا این حادثه را انکار نکرد. سخنگوی این شرکت، آسیبپذیری را در روزنامه تأیید کرد، اما به کاربران اطمینان داد که در طول این رویداد هیچ داده کاربری به خطر نیفتاده است. گزارش داخلی این شرکت نشان داد که عوامل فنی نامشخص دیگری در گسترش این آسیبپذیری نقش داشتهاند.
حتی شگفتانگیزتر اینکه، این آسیبپذیری به مدت دو ساعت کامل بدون شناسایی ادامه داشت. به گفته منابع آگاه، هیچ کارمندی از امتیازات غیرمجاز سوءاستفاده نکرد و هیچ دادهای فاش نشد. با این حال، کارشناسان امنیت سایبری معتقدند که یکپارچگی دادهها در این مورد بیشتر یک شانس بوده تا یک اقدام امنیتی قوی.
این حادثه، سوالات مهمی را در مورد خطرات احتمالی اتکای بیش از حد به هوش مصنوعی، به ویژه پس از مجموعهای از حوادث مشابه در شرکتهای بزرگ فناوری، مطرح میکند. همین چند ماه پیش، خدمات وب آمازون به دلیل ابزار برنامهنویسی هوش مصنوعی خود، Kiro، دچار قطعی ۱۳ ساعته شد. علاوه بر این، Moltbook، یک پلتفرم شبکه اجتماعی متخصص در عاملهای هوش مصنوعی و اخیراً خریداری شده توسط Meta، دچار آسیبپذیری امنیتی شد که دادههای کاربر را به دلیل نقصی در محیط نرمافزاری خود در معرض خطر قرار میداد.
منبع: Engadget