روند رشد و توسعه هوش مصنوعی به دغدغهای جهانی تبدیل شده و مباحث مربوط به مخاطرات و قانونگذاری آن اهمیت ویژهای پیدا کرده است. درست به همین دلیل هم هست که مدتی پیش سنای آمریکا، سم آلتمن، مدیرعامل شرکت OpenAI را برای ارائه توضیحاتی درباره روند رشد هوش مصنوعی مولد و چتباتهای مبتنی بر آن فراخواند و در اتحادیه اروپا هم به تازگی از اصلاح قانون هوش مصنوعی خبر داده است تا بر اعمال قوانین بیشتر بر این فناوری تاکید کند. اما آنچه جالب به نظر میرسد، اتفاق نظر میان دولتها، محققان و توسعهدهندگان هوش مصنوعی بر سر نیاز به قوانین ویژه برای توسعه این فناوری است.
سم آلتمن در مجلس سنا خواستار ایجاد یک نهاد دولتی جدید شد تا مجوزهای مربوط به توسعه الگوهای زبانی بزرگ مبتنی بر هوش مصنوعی را صادر کند. او پیشنهادهای متنوعی برای شیوه قانونگذاری این صنعت توسط این نهاد دولتی جدید را ارائه کرد؛ از جمله ایجاد ترکیبی از صدور مجوز و آزمایش ملزومات. او همچنین اعلام کرد که شرکتهایی مانند OpenAI باید به صورت مستقل، حسابرسی شوند.
با این همه، همانطور که توافق بر سر مخاطرات هوش مصنوعی از جمله تاثیرات آن بر مشاغل و حریم خصوصی افراد، ادامه دارد؛ اما همچنان بسیاری درباره اینکه چنین قوانینی باید چطور وضع شوند یا حسابرسی از شرکتهای فعال در این حوزه باید بر چه مواردی متمرکز باشد، نگرانیهای متعددی دارند.
در همین راستا، مجمع جهانی اقتصاد میزبان اجلاس هوش مصنوعی مولد شد و رهبران هوش مصنوعی از کسبوکارها، دولتها و موسسات تحقیقاتی را گرد هم آورد تا بر سر چگونگی مدیریت ملاحظات اخلاقی و قانونی جدید به توافق برسند. از خلال این اجلاس، مباحث و توافقات متعددی به دست آمد که میتوانند در ادامه مسیر توسعه هوش مصنوعی راهگشا باشند.
لزوم حسابرسی مسوولانه و توجیهپذیر
قبل از هر چیز بهتر است تصویر موجود از ملزومات کسبوکارها برای بهکارگیری و توسعه الگوهای هوش مصنوعی شفافتر شود. این موضوع وقتی اهمیت بیشتری پیدا میکند که به معنای حقیقی نوآوری مسوولانه میرسیم. بریتانیا این بحث را به شکل جدی دنبال میکند و اخیرا دولت این کشور راهنمایی برای هوش مصنوعی بر اساس پنج اصل شامل امنیت، شفافیت و عدالت را ارائه کرده است.
علاوه بر این، به تازگی دانشگاه آکسفورد تحقیقی انجام داده و به این نتیجه رسیده است که «الگوهای زبانی بزرگ مبتنی بر هوش مصنوعی مانند چت جیپیتی برای انطباق با مفهوم مسوولیتپذیری، باید بهروزرسانی شوند.»
پیشران اصلی برای این مسوولیتهای جدید، مشکلات مربوط به درک و حسابرسی از نسل جدید الگوهای هوش مصنوعی هستند که به مرور افزایش مییابند. کارشناسان معتقدند که برای ارزیابی دقیق این مشکلات بهتر است «هوش مصنوعی اولیه» با «الگوهای زبانی بزرگ مبتنی بر هوش مصنوعی» مقایسه شده و به صورت موردی مانند پیشنهاد شغل به کارجویان، مورد بررسی قرار بگیرند.
اگر هوش مصنوعی در مفهوم اولیه خود از دادهها برای آموزش کمک میگرفت تا کارمندانی از یک نژاد یا جنسیت مشخص در مشاغل سطوح بالا شناسایی کند، اما ممکن است با پیشنهاد افرادی از یک نژاد یا جنسیت برای مشاغل، باعث ایجاد تبعیض میان آنها شود. خوشبختانه این موضوعی است که به کمک دادههای مورد استفاده برای آموزش الگوهای زبانی هوش مصنوعی، قابل پیگیری و حسابرسی باشد.
شناسایی این تبعیضها برای الگوهای زبانی بزرگ مبتنی بر هوش مصنوعی، سختتر میشود؛ در صورتی که امکان آزمودن کیفیت شناسایی این الگوها وجود نداشته باشد. به عنوان مثال این دغدغه وجود دارد که اگر از چت جیپیتی بخواهیم سخنرانی یک نامزد انتخابات ریاستجمهوری را خلاصه کند، بر چه اساس و جهتگیری سخنان او را قضاوت و انتخاب میکند. بنابراین این چالش را میتوان به موضوعات دیگری مانند انتخاب محصولات برای مشتریان هم تعمیم داد و به ابهاماتی برای چگونگی پیگیری پیشنهاد محصولات و تضمین درستی این پیشنهادها رسید.
شناسایی محدودیتهای شناختی در الگوهای زبانی بزرگ مبتنی بر هوش مصنوعی کمک میکند تا تصمیمگیری درباره اعتماد به نتایج ارائه شده توسط آنها را به شکلی دقیقتر انجام دهیم. اگر چه چشمانداز قانونگذاری در زمینه بهکارگیری هوش مصنوعی به سرعت در حال تغییر و تحول است، اما به تدریج دغدغهها از این هم فراتر خواهد رفت و به مواردی مانند چگونگی تصمیمگیری هوش مصنوعی و دادهها و اسنادی که به آنها برای تصمیمگیری اتکا میکند، خواهد رسید.
شفافیت برای ایجاد استانداردها
نیاز دولتها به تعریف استانداردهای شفافتر و گستردهتر درباره اینکه تکنولوژیهای هوش مصنوعی چطور شکل بگیرند و این استانداردها چطور برای مصرفکنندگان و کارمندان، شفافتر بشوند، موضوع بااهمیت دیگری است که ذهن کارشناسان و مدیران را به خود مشغول کرده است.
کریستینا مونتگومری، مدیر ارشد حریم خصوصی در شرکت IBM، در جلسه استماع مجلس سنا با حضور سم آلتمن بر نیاز به استانداردهایی تاکید کرد که تضمین میکنند که مصرفکنندگان در هر زمان از مخاطرات کار با یک چتبات آگاه باشند. این شکل از شفافیت، همان موضوع کلیدی است که در ملاحظات اخیر اتحادیه اروپا برای قانون هوش مصنوعی مورد تاکید قرار گرفته است تا حتما عملکرد الگوهای زبانی بزرگ مبتنی بر هوش مصنوعی را تحت تاثیر قرار دهد و از حریم خصوصی کاربران محافظت کند. در مواجهه با رشد چشمگیر الگوهای زبانی و تکنولوژیهای جدید، نیاز به کنترل و قانونگذاری بیشتر احساس میشود و وقتی بحث به تجارت و مسائل مربوط به آن میرسد، این نیاز بیشتر شده و نگرانیهای مربوط به ملاحظات آن شدیدتر میشود.
با این اوصاف است که کارشناسان و مدیران کسبوکارها معتقدند با شفافسازی استانداردهای لازم برای بهکارگیری هوش مصنوعی در تجارت و بازرگانی، فرصتها و چالشهای پیشرو را شناسایی کرده و نگاهی دقیقتر و بهتر به آینده در سایه توسعه تکنولوژیهای جدید داشته باشند.
این در حالی است که تحولات و تاثیرات توسعه هوش مصنوعی در داخل کسبوکارها و به خصوص برای تیمهای نیروی انسانی ایجاد میشود که احتمالا با چالشهای جدید و جدی از سوی کارمندان در مواجهه با ابزارهای هوشمند روبهرو خواهند شد. آنها نیازمند همافزایی بیشتر با استانداردهای تازه در این زمینه هستند تا بتوانند پیشبینیها و برنامههای تازهای برای نیروی انسانی در نظر بگیرند که آنها را با مهارتهای جدید مورد نیازشان آشنا کرده و برای پذیرش فناوریهای نوظهور از جمله ابزارهای هوش مصنوعی، آماده کنند.
منبع: روزنامه دنیای اقتصاد