انتشار دستورالعمل جهانی جهت افزایش امنیت هوش مصنوعی
ایالات متحده، بریتانیا، استرالیا و 15 کشور دیگر دستورالعملهای جهانی را برای کمک به محافظت از مدلهای هوش مصنوعی در برابر دستکاری منتشر کردهاند و از شرکتها میخواهند که مدلهای خود را بر اساس secure by design، ایمن کنند.
در ۲۶ نوامبر، ۱۸ کشور، سندی ۲۰ صفحهای منتشر کردند که نشان میدهد چگونه شرکتهای هوش مصنوعی باید امنیت سایبری خود را هنگام توسعه یا استفاده از مدلهای هوش مصنوعی مدیریت کنند؛ زیرا آنها ادعا کردند که «امنیت اغلب میتواند از ملاحظات ثانویه» در صنعت پرسرعت باشد.
این دستورالعملها عمدتاً شامل توصیههای عمومی مانند حفظ یک بند محکم بر روی زیرساخت های مدل هوش مصنوعی، نظارت بر هرگونه دستکاری در مدلها قبل و بعد از انتشار، و آموزش کارکنان در مورد خطرات امنیت سایبری بود. موارد بحث برانگیز خاصی در فضای هوش مصنوعی ذکر نشد، از جمله اینکه چه کنترلهایی باید در مورد استفاده از مدلهای تولید تصویر و جعلهای عمیق یا روشهای جمعآوری داده و استفاده در مدلهای آموزشی وجود داشته باشد. موضوعی که چندین شرکت به دلیل نقض حق چاپ مورد بازخواست و شکایت قرار گرفتند.
الخاندرو مایورکاس، وزیر امنیت داخلی ایالات متحده در بیانیه ای گفت: «ما در نقطه عطف توسعه این فناوری هستیم، که ممکن است مهم ترین فناوری زمان ما باشد. «امنیت سایبری برای ساختن سیستم های هوش مصنوعی ایمن و قابل اعتماد کلیدی است.» این دستورالعملها از دیگر ابتکارات دولتی که بر این فناوری تأثیر میگذارند، از جمله نشست ایمنی در لندن در اوایل ماه جاری برای هماهنگی توافقنامه توسعه این فناوری، پیروی میکنند.
در همین حال، اتحادیه اروپا در حال هش کردن جزئیات قانون Ai خود است که بر فضا نظارت خواهد کرد و جو بایدن، رئیسجمهور ایالات متحده، در ماه اکتبر فرمان اجرایی صادر کرد که استانداردهایی را برای ایمنی و امنیت این فناوری تعیین میکند. اگرچه هر دوی آنها با واکنش این صنعت مواجه شده اند که ادعا می کند می توانند نوآوری را خفه کنند. سایر امضاکنندگان دستورالعمل جدید ” secure by design ” عبارتند از: کانادا، فرانسه، آلمان، اسرائیل، ایتالیا، ژاپن، نیوزیلند، نیجریه، نروژ، کره جنوبی و سنگاپور. شرکتهای هوش مصنوعی، از جمله OpenAI، Microsoft، Google، Anthropic و Scale AI نیز در توسعه دستورالعملها مشارکت داشتند.