در پی افزایش نگرانکننده حوادث مرتبط با سلامت روان که ناشی از تعامل با چتباتهای هوشمند بوده است، ائتلافی از دادستانهای کل ایالتی نامهای هشدارآمیز به رهبران صنعت هوش مصنوعی ارسال کردند.
این نامه که به امضای دهها دادستان کل از ایالتها و قلمروهای مختلف آمریکا و با هماهنگی «انجمن ملی دادستانهای کل» (National Association of Attorneys General) رسیده است، خطاب به ۱۳ شرکت بزرگ فناوری از جمله «مایکروسافت»، «اوپنایآی»، «گوگل»، «متا» و «اپل» نوشته شده است. در این فهرست نام شرکتهای دیگری همچون «آنتروپیک» (Anthropic)، «پرپلکسیتی» (Perplexity AI) و xAI نیز به چشم میخورد.
راهکارهای مقابله با توهم هوش مصنوعی
دادستانها در این نامه از شرکتها خواستهاند تا تدابیر امنیتی داخلی جدید و متنوعی را برای محافظت از کاربران خود اجرایی کنند. یکی از مهمترین درخواستها، انجام ممیزیهای شفاف توسط اشخاص ثالث بر روی مدلهای زبانی بزرگ است. هدف از این ممیزیها، شناسایی نشانههایی از تفکرات متوهم یا چاپلوسانه در هوش مصنوعی است.
طبق متن نامه، این ناظران مستقل که میتوانند شامل گروههای دانشگاهی و نهادهای مدنی باشند، باید اجازه داشته باشند تا سیستمها را پیش از انتشار عمومی ارزیابی کرده و یافتههای خود را بدون ترس از تلافی و بدون نیاز به تایید قبلی شرکت منتشر کنند.
در بخشی از این نامه آمده است: «هوش مصنوعی مولد (GenAI) پتانسیل تغییر جهان به شکلی مثبت را دارد، اما همزمان باعث آسیبهای جدی شده و پتانسیل آسیب رساندن بیشتر، بهویژه به قشر آسیبپذیر را دارد.» نویسندگان نامه به حوادث تلخی در سال گذشته، از جمله موارد خودکشی و قتل اشاره کردهاند که در آنها خشونت با استفاده افراطی از هوش مصنوعی مرتبط بوده است.
گزارشدهی حوادث مشابه حملات سایبری
دادستانها پیشنهاد دادهاند که شرکتهای فناوری با حوادث مرتبط با سلامت روان دقیقاً مشابه حوادث امنیت سایبری رفتار کنند؛ یعنی با سیاستها و رویههای گزارشدهی شفاف و روشن.
در این نامه تاکید شده است که شرکتها باید جدول زمانی مشخصی برای تشخیص و پاسخ به خروجیهای متوهم و چاپلوسانه تدوین و منتشر کنند. همچنین، مشابه روشی که در حال حاضر با نقض دادهها (Data Breaches) برخورد میشود، اگر کاربران در معرض خروجیهای بالقوه مضر قرار گرفتند، شرکتها باید «فورا، به وضوح و مستقیما» به آنها اطلاع دهند.
این نامه همچنین خواستار توسعه «تستهای ایمنی منطقی و مناسب» روی مدلهای هوش مصنوعی شده است تا اطمینان حاصل شود که این مدلها خروجیهای خطرناک تولید نمیکنند. این تستها باید پیش از آنکه مدلها در اختیار عموم قرار بگیرند، انجام شوند.
تقابل دیدگاه فدرال و ایالتی
این فشار قانونی از سوی ایالتها در حالی صورت میگیرد که در سطح فدرال، رویکرد متفاوتی در جریان است. دولت «ترامپ» آشکارا موضعی حمایتی نسبت به هوش مصنوعی اتخاذ کرده و طی سال گذشته تلاشهایی برای تصویب توقف سراسری قوانین ایالتی در حوزه هوش مصنوعی صورت گرفته است.
دونالد ترامپ اخیرا اعلام کرده که قصد دارد فرمانی اجرایی صادر کند تا توانایی ایالتها برای قانونگذاری در حوزه هوش مصنوعی را محدود کند. او در پستی در شبکه اجتماعی خود اظهار امیدواری کرد که این اقدام مانع از آن شود که هوش مصنوعی «در نطفه نابود شود.»