کوردستان میدیا

سایت مرکزی حزب دمکرات کوردستان ایران

از تحلیل تا هدف‌گیری؛ نقش هوش مصنوعی در حملات آمریکا به ایران

12:03 - 17 اسفند 1404

به گزارش وال‌استریت ژورنال، سرعت و دقت بی‌سابقه حملات آمریکا و اسرائیل به ایران نتیجه ماه‌ها برنامه‌ریزی، تمرکز نیروی نظامی گسترده و به‌کارگیری فناوری پیشرفته هوش مصنوعی است که پیش از این در چنین مقیاسی استفاده نشده بود.

هوش مصنوعی در گردآوری اطلاعات، انتخاب اهداف، برنامه‌ریزی عملیات بمباران و ارزیابی خسارات نقش کلیدی دارد و به فرماندهان امکان می‌دهد تصمیمات سریع‌تر و دقیق‌تری بگیرند و منابعی مانند مهمات و تجهیزات را بهینه مدیریت کنند.

پیش از اجرای عملیات علیه رهبران جمهوری اسلامی، سرویس‌های اطلاعاتی اسرائیل سال‌ها دوربین‌های ترافیکی تهران را زیر نظر داشتند و ارتباطات مقامات را شنود می‌کردند. در این میان، هوش مصنوعی نقش اصلی را در غربال‌کردن حجم عظیم اطلاعات برعهده داشت.

هدف اصلی هوش مصنوعی نظامی ارائه سریع‌تر اطلاعات دقیق به فرماندهان است تا بتوانند تصمیمات بهتری از دشمن بگیرند. سنتکام اعلام کرده که از آغاز حملات تاکنون بیش از سه هزار هدف توسط پهپادهای تهاجمی، جنگنده‌های اف-۲۲ و بمب‌افکن‌های رادارگریز بی-۲ هدف گرفته شده است.

هوش مصنوعی بیشترین تأثیر خود را در پردازش اطلاعات، برنامه‌ریزی عملیات و مدیریت لجستیک نشان داده است. تحلیل اطلاعات می‌تواند هزاران ساعت کار تحلیلگران انسانی را در زمانی کوتاه انجام دهد؛ به گفته مقامات آمریکایی، تحلیلگران تنها قادر بودند حدود ۴ درصد از داده‌های جمع‌آوری‌شده را پردازش کنند.

دید ماشینی مبتنی بر هوش مصنوعی اکنون قادر است اهداف مختلف، از هواپیما و خودرو گرفته تا پرتابگرهای موشکی، را شناسایی و ردیابی کند و حتی هشدارهای خودکار برای وقوع رویدادهای مهم صادر نماید.

هوش مصنوعی همچنین سرعت تدوین و به‌روزرسانی طرح‌های عملیاتی را افزایش داده است. آنچه پیش‌تر هفته‌ها طول می‌کشید، اکنون در چند روز ممکن است. این فناوری تعاملات پیچیده میان اطلاعات، لجستیک و فرماندهی را پردازش کرده و اثرات هر تغییر را در سراسر عملیات لحظه‌ای محاسبه می‌کند.

پس از حمله، هوش مصنوعی با پردازش تصاویر، ارزیابی خسارات را تسریع می‌کند، هرچند کیفیت داده‌ها همچنان به عوامل محیطی بستگی دارد. با این حال، بسیاری از مقام‌های نظامی هشدار می‌دهند که هوش مصنوعی جایگزین قضاوت انسانی نیست و اتکا بیش از حد به آن می‌تواند خطرناک باشد.

املیا پروباسکو، پژوهشگر ارشد دانشگاه جورج‌تاون، تأکید می‌کند که باید سازوکارهای حفاظتی و محدودکننده برای جلوگیری از تصمیم‌گیری‌های اشتباه توسط هوش مصنوعی ایجاد شود.