مذاکرهکنندگان شورای اروپا و پارلمان اروپا اعلام کردند که الزاماتی را برای سیستمهای هوش مصنوعی بر اساس خطرات بالقوه و سطوح تأثیر به عنوان بخشی از یک توافق موقت مرتبط با «قانون هوش مصنوعی اتحادیه اروپا» ایجاد کردهاند.
بر اساس این توافق مقدماتی، توسعهدهندگان مدلهای هوش مصنوعی دارای کارکرد عمومی باید مستندات فنی ارائه کنند، از قانون حق چاپ اتحادیه اروپا تبعیت کنند و خلاصههای دقیقی را درباره محتوای آموزشی منتشر کنند.
توسعهدهندگانی که از این قوانین پیروی نکنند، بسته به تخلف و اندازه شرکتشان، متحمل جریمههایی از ۷ تا ۳۵ میلیون یورو خواهند شد.
هدف «قانون هوش مصنوعی اتحادیه اروپا» این است که اطمینان حاصل شود که مقررات پیشنهادی امکان توسعه و استفاده ایمن از فناوری را فراهم میآورند و در عین حال تلاش شود که از سرکوب نوآوری جلوگیری شود. این همان هدفی است که سایر سازمانهای حاکمیتی، با توجه به روند رو به تکامل هوش مصنوعی، آن را دنبال میکنند.
با این حال، تفاوتهایی بین «قانون هوش مصنوعی» و سایر تلاشهای رگولاتوری وجود دارد.
ایوانا بارتولتی، مدیر ارشد حریم خصوصی جهانی در موسسه Wipro و یکی از بنیانگذاران اندیشکده زنان پیشرو در هوش مصنوعی، گفت: «قانون هوش مصنوعی اتحادیه اروپا رویکردی مبتنی بر محصول دارد، و این بدان معناست که هر محصول هوش مصنوعی باید بر اساس خطراتی که به همراه دارد، با کنترلهای سختگیرانهتری که بر روی هوش مصنوعی پرخطر وضع میشوند، طبقهبندی شود. الزام به ارزیابی پیروی از مقررات بهعنوان ارزیابی حقوق اساسی از اینجا نشأت میگیرد: این یک قانون مبتنی بر محصول است، و نه، مانند رویکرد ایالاتمتحده، مختص زمینه (کانتکست)».
اتحادیه اروپا همچنین به صراحت جریمههایی را برای عدم رعایت این قانون اعلام میکند، در حالی که فرمان اجرایی دولت بایدن چنین نیست.
آویوا لیتان، معاون تحلیلگر برجسته در گارتنر، گفت: «به این ترتیب، این امکان وجود دارد که کنگره ایالاتمتحده و دولت فدرال ایالات متحده از قانون هوش مصنوعی اتحادیه اروپا به عنوان الگویی برای تصویب قوانین و مقررات دقیق و مکانیزمهای اعمال قانون استفاده کنند».
لیتان گفت: «هنوز در قانون هوش مصنوعی اتحادیه اروپا مسائلی وجود دارد – به عنوان مثال، سازمانهای حقوق بشر استدلال میکنند که معافیتهای بیش از حدی برای سازمانهای مجری قانون وجود دارد، و در سالهای آینده باید درباره این استدلالها و قوانین چارهجویی شود».
بر اساس این توافق، مقررات پیشنهادی اتحادیه اروپا کاربردهای مشخصی از هوش مصنوعی، از جمله سیستمهای طبقهبندی بیومتریک را که از ویژگیهای حساس استفاده میکنند، خراشیدن غیرهدفگذاریشده تصاویر چهره، تشخیص احساسات در محیط کار، امتیازدهی اجتماعی بر اساس رفتار یا ویژگیها، دور زدن اراده آزاد انسانها و استفاده از فناوری برای سوء استفاده از نقاط ضعف را ممنوع میکند.
با این حال، چندین معافیت از اجرای قانون وجود دارد، از جمله استفاده از این فناوری برای جستجوی هدفمند، جلوگیری از تهدیدات تروریستی یا برای یافتن و شناسایی مظنونان.