Openai، یک شرکت پیشرو در زمینه اطلاعات مصنوعی ، فاش کرده است که به طور جدی در حال مبارزه با سوء استفاده گسترده از ابزارهای هوش مصنوعی خود توسط گروه های مخرب از کشورهایی مانند چین ، روسیه ، کره شمالی و ایران است.
در گزارشی جدید که در اوایل این هفته منتشر شد ، Openai اعلام کرد که فقط در سه ماه ده شبکه اصلی را با موفقیت تعطیل کرده است و تعهد خود را برای مبارزه با تهدیدات آنلاین نشان می دهد.
این گزارش نشان می دهد که چگونه بازیگران بد از هوش مصنوعی برای ایجاد فریب های آنلاین قانع کننده استفاده می کنند. به عنوان مثال ، گروه های متصل به چین از هوش مصنوعی برای ارسال نظرات و مقالات جعلی گسترده در سیستم عامل هایی مانند Tiktok و X استفاده کردند و وانمود می کنند که در کمپین به نام Sneer Evaluation ، کاربران واقعی هستند.
این شامل یک ویدیوی دروغین بود که فعال پاکستانی را متهم می کرد مهرنگ بلوچ ظاهر شدن در یک فیلم مستهجن. آنها همچنین از هوش مصنوعی برای تولید محتوا برای بحث های قطبی در ایالات متحده استفاده کردند ، از جمله ایجاد پروفایل های جعلی جانبازان ایالات متحده برای تأثیرگذاری بر مباحث مربوط به موضوعاتی مانند تعرفه ، در عملیاتی به نام عمو اسپم.
از طرف دیگر بازیگران کره شمالی رزومه های جعلی ساخته شده و برنامه های شغلی با استفاده از AI آنها به دنبال مشاغل از راه دور فناوری اطلاعات در سطح جهان بودند ، احتمالاً داده ها را سرقت می کردند. در همین حال ، گروه های روسی از هوش مصنوعی برای تهیه نرم افزار خطرناک و برنامه ریزی حملات سایبری ، با یک عملیات ، ScopecReep استفاده کردند و با تمرکز بر ایجاد بدافزار طراحی شده برای سرقت اطلاعات و پنهان کردن از تشخیص.
یک گروه ایرانی ، Storm-2035 (AKA APT42 ، Imperial Kitten و TA456) ، بارها و بارها از هوش مصنوعی برای تولید توییت به زبان اسپانیایی و انگلیسی در مورد مهاجرت ایالات متحده ، استقلال اسکاتلند و سایر موضوعات سیاسی حساس استفاده می کرد. آنها حسابهای جعلی رسانه های اجتماعی ، غالباً با تصاویر نمایه مبهم ، به عنوان ساکنان محلی ظاهر می شوند.
AI همچنین در کلاهبرداری های گسترده مورد استفاده قرار می گیرد. در یک مورد قابل توجه ، عملیاتی که احتمالاً در کامبوج مستقر است ، با شماره اشتباه ، از AI برای ترجمه پیام ها برای کلاهبرداری کار استفاده کرد. این طرح وعده پرداخت بالایی را برای فعالیت های آنلاین ساده ، مانند دوست داشتن پست های رسانه های اجتماعی ، وعده داده است.
کلاهبرداری از یک الگوی واضح پیروی کرد: “پینگ” (تماس سرد) که دستمزد بالایی را ارائه می دهد ، “zing” (اعتماد به نفس و هیجان با درآمد جعلی) و در آخر ، “نیش” (خواستار پول از قربانیان برای پاداش های بزرگتر است). این کلاهبرداری ها به چندین زبان از جمله انگلیسی ، اسپانیایی و آلمانی عمل می کردند و قربانیان را به سمت برنامه هایی مانند هدایت می کردند واتس اپ و تلگرامبشر
این شرکت ادعا می کند که Openai به طور فعال حسابهای درگیر در این فعالیت ها را با استفاده از هوش مصنوعی به عنوان “چند برابر نیرو” برای تیم های تحقیقاتی خود تشخیص داده و ممنوعیت می کند. این رویکرد پیشگیرانه اغلب به معنای بسیاری از این کمپین های مخرب به تعامل معتبر کمی یا تأثیر محدود در دنیای واقعی قبل از خاموش شدن است.
افزودن به مبارزه آن با سوء استفاده از هوش مصنوعی، OpenAI همچنین در مورد حریم شخصی کاربر با یک چالش حقوقی قابل توجه روبرو است. در تاریخ 13 مه ، یک دادگاه ایالات متحده ، به رهبری قاضی اونا تی. وانگ ، مرتب Openai برای حفظ مکالمات چتپ.
این دستور ناشی از دادخواست نقض حق چاپ است که توسط نیویورک تایمز و سایر ناشران تشکیل شده است ، که ادعا می کنند Openai به طور غیرقانونی از میلیون ها مقاله دارای حق چاپ برای آموزش مدلهای هوش مصنوعی خود استفاده کرده است. آنها استدلال می کنند که توانایی چتپپ در تولید مثل ، خلاصه یا تقلید از محتوای آنها بدون اجازه یا جبران خسارت ، مدل تجاری آنها را تهدید می کند.
Openai با اعتراض به این دستور ، با بیان اینکه این شرکت را مجبور می کند مخالف تعهد خود به حفظ حریم خصوصی و کنترل کاربر باشد ، اعتراض کرده است. این شرکت تأکید کرد که کاربران غالباً اطلاعات شخصی حساس را در گپ ها به اشتراک می گذارند ، انتظار دارند که حذف شود یا خصوصی بماند. این تقاضای حقوقی یک چالش پیچیده برای Openai ایجاد می کند.