سوفیا نیکول سالیویو
سردبیر خبر
ISACA تحقیقاتی را منتشر کرده است که نشان میدهد 35 درصد از سازمانهای اروپایی نمیتوانند بگویند که آیا مورد حمله سایبری مبتنی بر هوش مصنوعی قرار گرفتهاند یا خیر، که نشاندهنده دید ضعیف نسبت به یک خطر امنیتی سریع در حال رشد در سراسر منطقه است.
یک نظرسنجی از 681 متخصص اعتماد دیجیتال در اروپا نشان داد که 71٪ معتقدند که تشخیص حملات فیشینگ و مهندسی اجتماعی مبتنی بر هوش مصنوعی دشوارتر است. 58 درصد دیگر گفتند که هوش مصنوعی احراز هویت اطلاعات دیجیتال را به طور قابل توجهی دشوارتر کرده است، در حالی که 38 درصد از کاهش اعتماد به روش های سنتی تشخیص تهدید خبر دادند.
این یافتهها جزئیات بیشتری را به نگرانیهای گستردهتر در میان مشاغل و سیاستگذاران در مورد تأثیر هوش مصنوعی بر ریسک سایبری اضافه میکند. دادههای ISACA نشان میدهد که بسیاری از سازمانها در تلاش هستند تا نه تنها با حملات مجهز به هوش مصنوعی، بلکه با کنترلهای داخلی مورد نیاز برای نظارت بر استفاده از فناوری در کارهای روزمره همگام شوند.
شکاف تشخیص
اطلاعات نادرست و اطلاعات نادرست به عنوان بزرگترین خطر مرتبط با هوش مصنوعی در این نظرسنجی ظاهر شد که توسط 87٪ از پاسخ دهندگان ذکر شد. نقض حریم خصوصی 75 درصد دنبال شد، در حالی که 60 درصد مهندسی اجتماعی را به عنوان یک نگرانی اصلی معرفی کردند.
در همان زمان، پاسخ دهندگان گزارش دادند که هوش مصنوعی به کارهای دفاعی کمک می کند. حدود 43 درصد گفتند که توانایی سازمانشان برای شناسایی و پاسخ به تهدیدات سایبری را بهبود بخشیده است و 34 درصد در حال حاضر هوش مصنوعی را به طور خاص برای حمایت از تلاشهای امنیت سایبری به کار میگیرند.
این تضاد در نتایج وجود دارد. کسبوکارها ابزارهای هوش مصنوعی را در مقیاس بالا به کار میگیرند، اما به نظر میرسد که حکمرانی عقب مانده است و شکافهایی در نظارت باقی میگذارد و نگرانی در مورد سوء استفاده را افزایش میدهد.
در سرتاسر محل کار اروپایی، 82 درصد از سازمان ها گفته اند که به صراحت استفاده از هوش مصنوعی و 74 درصد به طور خاص به هوش مصنوعی مولد اجازه می دهند. متداولترین استفادهها ایجاد محتوای نوشتاری بود که با 69 درصد ذکر شده، افزایش بهرهوری در 63 درصد، خودکار کردن کارهای تکراری با 54 درصد و تجزیه و تحلیل مجموعه دادههای بزرگ با 52 درصد.
بسیاری نیز دستاوردهای عملی را گزارش کردند. 77 درصد از پاسخ دهندگان به صرفه جویی در زمان اشاره کردند، در حالی که 40 درصد گفتند هوش مصنوعی بدون تعداد کار اضافی ظرفیت را افزایش داده است.
کمبود سیاست
علیرغم گسترش هوش مصنوعی در عملیات های معمول، تنها 42 درصد از سازمان ها گفتند که یک خط مشی رسمی و جامع هوش مصنوعی دارند. این نظرسنجی همچنین نشان داد که 33 درصد از کارکنان نیازی به افشای زمانی ندارند که هوش مصنوعی در محصولات کاری مشارکت داشته است.
فقدان کنترل های رسمی نگرانی را در میان متخصصان مسئول ریسک، حاکمیت و امنیت سایبری ایجاد می کند. بر اساس این نظرسنجی، 87 درصد نگران استفاده کارمندان از هوش مصنوعی در یک ظرفیت غیرمجاز هستند. 26 درصد دیگر گفتند که بزرگترین چالش آنها با هوش مصنوعی در کار، عدم اعتماد به این است که به اندازه کافی از مالکیت معنوی و اطلاعات حساس محافظت می کند.
کریس دیمیتریادیس دیدگاه ISACA را در مورد این روند بیان کرد.
“هوش مصنوعی چشم انداز تهدید را به طور اساسی تغییر داده است. مهاجمان اکنون می توانند با سرعت قصد هک کنند، و بسیاری از سازمان ها حتی نمی دانند که آیا قبلاً در نقطه مقابل بوده اند یا خیر. این واقعیت که بسیاری از کسب و کارها بدون حاکمیت برای دیدن محل استفاده از هوش مصنوعی فعالیت می کنند، چه رسد به اینکه چگونه از هوش مصنوعی استفاده می شود، این قرار گرفتن در معرض را به طور قابل توجهی بدتر می کند.”
دیمیتریادیس، مدیر ارشد استراتژی جهانی در ISACA، گفت: “هوش مصنوعی غیرقابل کنترل فقط خطر عملیاتی ایجاد نمی کند. آن به طور فعال به کسانی که می خواهند آسیب وارد کنند یک مزیت ارائه می دهد. از بین بردن این شکاف با توسعه حرفه ای و ارتقای تخصص مورد نیاز برای ایجاد و تعبیه حکمرانی هوش مصنوعی که تحت فشار قرار می گیرد شروع می شود. انجام این کار اکنون یک ضرورت امنیتی است.”
فشار مهارت ها
این نظرسنجی نشان می دهد که بار پاسخگویی به این تغییر بر دوش کارکنانی است که احساس آمادگی کامل ندارند. بیش از نیمی از پاسخ دهندگان، 54 درصد، گفتند که برای حفظ شغل یا پیشرفت شغلی خود باید ظرف شش ماه آینده مهارت های خود را ارتقا دهند. در سال آینده، این رقم به 79 درصد افزایش یافت.
مهارت ها نیز به عنوان یک ریسک استراتژیک شناسایی شدند. حدود 41 درصد شکاف مهارتی رو به رشد را یکی از بزرگترین خطرات ناشی از هوش مصنوعی نامیدند، با این حال 21 درصد گفتند که سازمان های آنها هنوز آموزش رسمی هوش مصنوعی ارائه نمی دهند.
مقررات حوزه دیگری است که در آن اجرا ناهموار به نظر می رسد. قانون هوش مصنوعی اتحادیه اروپا بیشترین ارجاع به چارچوب حاکمیتی در این نظرسنجی بود که 45 درصد از سازمان ها به آن اشاره کردند. NIST با 26٪ دنبال شد.
با این حال، 26 درصد از سازمان ها گفتند که هنوز از هیچ چارچوبی پیروی نمی کنند. این به شکافی بین آگاهی از مقررات و گام های عملی مورد نیاز برای تعبیه حکمرانی، آموزش و نظارت اشاره دارد.
دیمیتریادیس گفت که چالش انحراف از اصول مدیریت ریسک نیست، بلکه آزمونی است برای اینکه آیا سازمان ها می توانند آن ها را با سرعت کافی در یک محیط پیچیده تر اعمال کنند یا خیر.
“مبانی مدیریت ریسک خوب تغییر نکرده است. چیزی که تغییر کرده پیچیدگی و سرعت چیزی است که اکنون از پزشکان خواسته می شود تا آن را اداره کنند. ریسک هوش مصنوعی به متخصصانی نیاز دارد که بتوانند قرار گرفتن در معرض را ارزیابی کنند، نظارت را در طول چرخه عمر کامل قرار دهند و در مورد بهترین عملکرد نظارتی مشاوره دهند. سازمان هایی که اکنون روی این قابلیت سرمایه گذاری می کنند، نه تنها بهتر محافظت می شوند، بلکه در موقعیت بهتری نیز قرار خواهند گرفت که هوش مصنوعی به طور کامل متوجه مزایای آن می شود. Dimitriadis گفت: اعتبارنامه Superior in AI Danger ISACA برای ارائه طراحی شده است.
