گوگل اعلام کرده که ابزار هوش مصنوعی جدید این شرکت با نام Big Sleep، موفق شده است نخستین مجموعه از آسیبپذیریهای امنیتی را در پروژههای نرمافزار متنباز شناسایی کند. این دستاورد که با همکاری DeepMind و گروه Project Zero حاصل شده، گامی مهم در خودکارسازی امنیت سایبری بهشمار میرود.
ورود Big Sleep به دنیای امنیت نرمافزار
Big Sleep یک ابزار مبتنی بر مدلهای زبانی بزرگ (LLM) است که توسط تیمهای DeepMind و Project Zero توسعه یافته است. این ابزار بهتازگی توانسته ۲۰ آسیبپذیری را در پروژههای محبوبی مانند FFmpeg و ImageMagick شناسایی کند. این کشف بدون دخالت مستقیم انسان در فرآیند تحلیل اولیه انجام شده است.
فرآیند کشف و تأیید آسیبپذیریها
طبق اعلام گوگل، تمام مراحل شناسایی و بازتولید آسیبپذیریها بهصورت خودکار توسط Big Sleep انجام شده، اما بررسی نهایی توسط کارشناسان انسانی صورت میگیرد. این همکاری میان انسان و ماشین، توازنی هوشمندانه ایجاد کرده که دقت را افزایش داده و احتمال بروز خطا را کاهش میدهد.
نگرانی از توهمات مدلهای زبانی
با وجود استقبال از این فناوری، برخی متخصصان نسبت به بروز خطاهای «توهمی» (hallucination) در گزارشهای هوش مصنوعی هشدار دادهاند. Vlad Ionescu، همبنیانگذار پروژه RunSybil، در عین تحسین Big Sleep، تأکید کرده است که صحتسنجی انسانی همچنان ضرورتی اجتنابناپذیر است.
رقبای Big Sleep در شناسایی خودکار باگها
در کنار Big Sleep، پروژههای دیگری مانند RunSybil و XBOW نیز در زمینه کشف خودکار آسیبپذیری فعالیت دارند. این رقابت در حال شکلدهی به موج جدیدی از ابزارهای امنیتی هوشمند است که آیندهی حوزه امنیت نرمافزار را متحول خواهند کرد.
تحلیل iTrends
ابزار Big Sleep نمایانگر آغاز عصری جدید در امنیت سایبری است؛ عصری که در آن مدلهای زبانی بزرگ نهفقط برای نوشتن یا ترجمه، بلکه برای تحلیل عمیق کد و کشف نقصهای امنیتی بهکار گرفته میشوند. موفقیت گوگل در این مسیر میتواند الگوی سایر شرکتهای فناوری در ادغام LLM با عملیات امنیتی باشد.
از نگاه iTrends، هرچند پتانسیل این ابزارها فوقالعاده است، اما ترکیب آنها با نظارت انسانی، کلید موفقیت واقعی خواهد بود. ورود هوش مصنوعی به حوزه امنیت نرمافزار، در صورت مدیریت صحیح، میتواند به کاهش زمان واکنش، افزایش دقت در شناسایی آسیبپذیریها و ارتقای امنیت نرمافزارهای متنباز منجر شود.