از آنجایی که دولتها برای همگام شدن با هوش مصنوعی تلاش میکنند، تنظیمکنندهها در هر دو سوی اقیانوس اطلس واقعیت جدیدی را برای شرکتهای فناوری نشان میدهند: دوران نظارت عمدتاً دستآمیز در حال پایان است، حتی اگر خود قوانین ثابت بماند.
این هفته دو تحول مهم را به همراه داشت که نشان میدهد چگونه مقررات هوش مصنوعی در جهات مختلف در اروپا و ایالات متحده در حال تغییر است. در اروپا، قانونگذاران بخشهایی از قانون شاخص هوش مصنوعی اتحادیه اروپا را نرمتر کردند و در عین حال حمایتهای جدیدی از مصرفکننده در مورد رسانههای مصنوعی و محتوای صریح اضافه کردند. در ایالات متحده، دادستان های کل ایالت با تمرکز فزاینده بر قیمت گذاری الگوریتمی و شفافیت دیجیتال، بررسی های ضد تراست و حمایت از مصرف کننده را افزایش می دهند.
این حرکت ها منعکس کننده تغییر گسترده تری در نحوه تفکر سیاست گذاران در مورد هوش مصنوعی است. بحث دیگر تنها بر روی ریسک های آینده متمرکز نیست. تنظیمکنندهها به طور فزایندهای بر روی روشهای روزمره که الگوریتمها قیمتگذاری، محتوا، هویت و اعتماد مصرفکننده را شکل میدهند، تمرکز میکنند.
پارلمان اروپا و کشورهای عضو اتحادیه اروپا در 7 مه به توافقی موقت برای بازنگری در جدول زمانی اجرایی و تعهدات مرتبط با قانون جامع هوش مصنوعی اتحادیه دست یافتند. به گزارش رویترز
بر اساس این توافق، چندین تعهد انطباق برای سیستمهای هوش مصنوعی به اصطلاح «خطر بالا» که قرار بود در سال 2026 اجرایی شوند، اکنون تا 2 دسامبر 2027 به تعویق میافتند. حامیان این تأخیر استدلال میکنند که شرکتها و تنظیمکنندهها به زمان بیشتری برای ایجاد سیستمهای انطباق کارآمد نیاز دارند.
در همان زمان، اتحادیه اروپا قوانین سخت تری را در مورد محتوای مصنوعی مضر اضافه کرد. سیستمهای هوش مصنوعی طراحیشده برای تولید تصاویر جنسی بدون توافق، که گاهی به آنها برنامههای «تعریفکننده» نیز گفته میشود، از ۲ دسامبر ۲۰۲۶ ممنوع خواهند شد.
این توافق همچنین مستلزم واترمارک کردن محتوای تولید شده توسط هوش مصنوعی است تا به مصرفکنندگان کمک کند رسانههای مصنوعی را از عکسها، ویدیوها و صداهای معتبر تشخیص دهند. هدف تعیین واترمارکینگ تا حدی کاهش سرعت انتشار اطلاعات غلط و کلاهبرداری های تولید شده توسط هوش مصنوعی است که هر دو به نگرانی های فزاینده ای برای موسسات مالی، شرکت های پرداخت و پلت فرم های آنلاین تبدیل شده اند.
بیشتر بخوانید: گوگل، مایکروسافت و xAI با نظارت دولت ایالات متحده بر مدلهای جدید هوش مصنوعی موافقت کردند
منتقدان می گویند چارچوب بازنگری شده بخش هایی از قانون اصلی را کاهش می دهد و برای کاربردهای صنعتی و ماشین آلات حاشیه های بیشتری ایجاد می کند. اما رویکرد گستردهتر اتحادیه اروپا همچنان یکی از جامعترین تلاشهای جهان برای تنظیم مقررات استقرار هوش مصنوعی تجاری است.
در ایالات متحده، فشارهای نظارتی کمتر از سوی واشنگتن و بیشتر از سوی مراکز ایالتی انجام می شود.
7 می جداگانه گزارش رویترز نشان داد که چگونه دادستان های کل ایالت در حال گسترش تحقیقات و تلاش های اجرایی مرتبط با آنتی تراست و حمایت از مصرف کننده هستند، به ویژه در مورد سیستم های قیمت گذاری الگوریتمی و هزینه های پنهان.
ایالاتی از جمله کالیفرنیا، نیویورک و تگزاس به طور فزاینده ای در بررسی چگونگی استفاده ابزارهای قیمت گذاری مبتنی بر هوش مصنوعی از داده های مصرف کننده و اینکه آیا این سیستم ها می توانند به شیوه های قیمت گذاری ناعادلانه یا کاهش رقابت کمک کنند، فعال شده اند.
تمرکز فراتر از رباتهای چت هوش مصنوعی یا ابزارهای مولد است. تنظیمکنندهها زیرساختهای زیر تجارت دیجیتال، از جمله موتورهای قیمتگذاری پویا، سیستمهای توصیه و نرمافزارهای تصمیمگیری خودکار را بررسی میکنند.
برای بانکها، فینتکها و شرکتهای پرداخت، پیام واضحتر میشود. تنظیمکنندهها الگوریتمها را کمتر بهعنوان نرمافزار خنثی و بیشتر بهعنوان سیستمهای عملیاتی میبینند که میتوانند مستقیماً بر نتایج مصرفکننده تأثیر بگذارند.
این تغییر پیامدهایی برای همه چیز از پیشگیری از کلاهبرداری و پذیره نویسی اعتبار گرفته تا تجربیات پرداخت و پیشنهادات شخصی دارد.
چالش شرکت ها در حال حاضر ایجاد تعادل بین نوآوری و قابلیت توضیح است. کسبوکارها هنوز در حال رقابت برای تعبیه هوش مصنوعی در محصولات و عملیات هستند، اما تنظیمکنندهها به طور فزایندهای میخواهند نحوه تصمیمگیری این سیستمها و اینکه آیا مصرفکنندگان متوجه میشوند که الگوریتمها چه زمانی تجربه را شکل میدهند، دیده شود.
مرحله بعدی مقررات فناوری ممکن است با پیشرفت چشمگیر هوش مصنوعی تعریف نشود. در عوض ممکن است به این بستگی داشته باشد که آیا شرکتها میتوانند ثابت کنند که سیستمهایشان شفاف، پاسخگو و منصفانه هستند تا اعتماد عمومی را جلب کنند.
