ایمنی هوش مصنوعی جدید در آمریکا باید بررسی شود
به گزارش وبو به نقل از رویترز، یک گروه مدافع حقوق بشر روز دوشنبه به مقامات آمریکایی اعلام نمود دولت دونالد ترامپ، باید مدلهای هوش مصنوعی جدید را پیش از عرضه عمومی برای وجود تهدیدهای امنیتی بررسی کند و قراردادهای کلان با دولت برای مدل هایی که در این بررسی ها شکست می خورند را متوقف ساز. این درحالی است که کاخ سفید با نتایج مدل هوش مصنوعی «مایتوس» متعلق به آنتروپیک دست پنجه نرم می کند. این مدل تهاجمات سایبری پیچیده را ساده تر و اجرای آنها را سریع تر می کند و ریسکی برای امنیت ملی کشور بشمار می رود. گروه« آمریکایی ها برای نوآوری مسئولانه»(Americans for Responsible Innovation ) از دولت ترامپ خواسته روش هایی جهت بررسی مدلهای هوش مصنوعی نوین متعلق به توسعه دهندگان بزرگ را در زمینه قابلیت های توسعه تسلیحات و حمله سایبری بوجود آورد. شرکت ها باید این بررسی را پشت سربگذارند تا واجد شرایط دریافت قراردادهای دولتی شوند. مرکز «استانداردهای هوش مصنوعی ونوآوری آمریکا» هم اینک مشغول بررسی برخی مدلها از راه توافقنامه های داوطلبانه با اوپن ای آی، آنتروپیک و در موارد جدیدتر گوگل، مایکروسافت و xAI است. این مرکز رهبری ایجاد الزامات الزامی را برعهده دارد و کنگره آمریکا باید یک دفتر اجرای دائمی در وزارت بازرگانی برای اجرای الزامات بوجود آورد. الزامات پیشنهادی شامل تمام شرکت هایی می شود که سالانه ۱۰۰ میلیون دلار یا بیشتر در رایانش برای آموزش مدلهای پیشرو هزینه می کنند یا حداقل سالانه ۵۰۰ میلیون دلار درآمد از محصولات و خدمات هوش مصنوعی دارند.
خلاصه اینکه این مرکز رهبری ایجاد الزامات الزامی را برعهده دارد و کنگره آمریکا باید یک دفتر اجرای دائمی در وزارت بازرگانی برای اجرای الزامات بوجود آورد. الزامات پیشنهادی شامل تمام شرکت هایی می شود که سالانه ۱۰۰ میلیون دلار یا بیشتر در رایانش برای آموزش مدل های پیشرو هزینه می کنند یا حداقل سالانه ۵۰۰ میلیون دلار درآمد از محصولات و خدمات هوش مصنوعی دارند.