از دولت ایالات متحده خواسته شده است که «سریع و قاطعانه» برای کاهش خطرات مهم امنیت ملی ناشی از هوش مصنوعی (AI)، که در بدترین سناریو میتواند یک «تهدید در سطح انقراض برای گونههای انسانی» باشد، اقدام کند.
بی ثبات کننده امنیت جهانی : این گزارش خطرات مرتبط با ظهور هوش مصنوعی پیشرفته و هوش عمومی مصنوعی (AGI) را برجسته می کند و تأثیر بالقوه امنیت جهانی آنها را به سلاح های هسته ای تشبیه می کند. اگرچه AGI همچنان فرضی است، اما سرعتی که آزمایشگاههای هوش مصنوعی روی چنین فناوریهایی کار میکنند نشان میدهد که ورود آن قریبالوقوع است.
بینش کارشناسان صنعت : نویسندگان گزارش، پس از مشورت با بیش از ۲۰۰ نفر از دولت، کارشناسان هوش مصنوعی و کارمندان در شرکتهای پیشرو هوش مصنوعی، نگرانیهای داخلی در مورد اقدامات ایمنی در صنعت هوش مصنوعی، به ویژه در شرکتهای پیشرو مانند آنتروپیک، متا، OpenAI، Google DeepMind را تشریح کردهاند.
بزرگنمایی : تمرکز گزارش بر روی ریسک «خطر سلاحسازی» و «از دست دادن کنترل» بر تهدیدات دوگانه ناشی از قابلیتهای هوش مصنوعی که به سرعت در حال تکامل است تأکید میکند. در مورد یک مسابقه خطرناک در میان توسعه دهندگان هوش مصنوعی هشدار می دهد که انگیزه های اقتصادی محرک آنهاست و می تواند ملاحظات ایمنی را به حاشیه براند.
تصویر بزرگ : در حالی که فناوری هوش مصنوعی در حال پیشرفت است، که نمونه آن ابزارهایی مانند ChatGPT است، درخواست برای اقدامات نظارتی قوی بلندتر می شود. این پیشنهاد شامل اقدامات بیسابقهای مانند غیرقانونی ساختن آموزش مدلهای هوش مصنوعی فراتر از سطوح قدرت محاسباتی خاص و تشکیل یک آژانس فدرال هوش مصنوعی برای نظارت بر این حوزه در حال رشد است.
نقش سخت افزار و مقررات فناوری پیشرفته : این سند همچنین خواستار افزایش کنترل بر تولید و صادرات تراشه های هوش مصنوعی است و بر اهمیت بودجه فدرال برای تحقیقات همسویی هوش مصنوعی تأکید می کند. این پیشنهاد شامل اقداماتی برای مدیریت تکثیر منابع محاسباتی پیشرفته ضروری برای آموزش سیستمهای هوش مصنوعی است.
هدف “طرح اقدام گلادستون” افزایش ایمنی و امنیت هوش مصنوعی پیشرفته برای مقابله با خطرات فاجعه بار امنیت ملی ناشی از تسلیحات هوش مصنوعی و از دست دادن کنترل است. این طرح خواستار مداخله دولت ایالات متحده از طریق یک سری اقدامات است :
پادمان های موقت : اجرای پادمان های موقت مانند کنترل های صادراتی برای تثبیت توسعه پیشرفته هوش مصنوعی. این شامل ایجاد یک رصدخانه هوش مصنوعی برای نظارت، تنظیم پادمانهای توسعه و پذیرش هوش مصنوعی، ایجاد یک کارگروه ایمنی هوش مصنوعی، و اعمال کنترل بر زنجیره تامین هوش مصنوعی است.
توانایی و ظرفیت : تقویت توانایی و ظرفیت دولت ایالات متحده برای آمادگی هوش مصنوعی پیشرفته از طریق آموزش، آموزش، و توسعه چارچوب پاسخ.
سرمایه گذاری فنی : تقویت سرمایه گذاری ملی در تحقیقات ایمنی هوش مصنوعی و توسعه استانداردهای ایمنی و امنیتی برای رسیدگی به سرعت سریع پیشرفت های هوش مصنوعی.
پادمان های رسمی : ایجاد یک آژانس نظارتی برای هوش مصنوعی، اداره سیستم های هوش مصنوعی مرزی (FAISA)، و تنظیم یک چارچوب مسئولیت قانونی برای پوشش ایمنی و امنیت هوش مصنوعی بلند مدت.
حقوق بینالملل و زنجیره تامین : تثبیت پادمانهای هوش مصنوعی در حقوق بینالملل برای جلوگیری از مسابقه تسلیحاتی جهانی در فناوری هوش مصنوعی، ایجاد آژانس بینالمللی هوش مصنوعی و تشکیل رژیم کنترل زنجیره تامین هوش مصنوعی با شرکای بینالمللی.
این طرح نیاز به رویکرد «دفاع در عمق» را برجسته میکند که کنترلهای همپوشانی متعددی را در برابر خطرات هوش مصنوعی ارائه میکند و با پیشرفت فناوری، این موارد را بهروزرسانی میکند. تصدیق می کند که توسعه هوش مصنوعی پیچیده است و دائما در حال تغییر است، بنابراین توصیه ها باید توسط متخصصان بررسی شوند.
چالشهای سیاسی و صنعتی : علیرغم ماهیت قانعکننده این توصیهها، با توجه به سیاستهای فعلی دولت ایالات متحده و ماهیت جهانی جامعه توسعه هوش مصنوعی، احتمالاً با مقاومت سیاسی و صنعتی قابل توجهی مواجه خواهند شد.
نگرانی های اجتماعی گسترده تر این گزارش منعکس کننده نگرانی فزاینده عمومی در مورد پتانسیل هوش مصنوعی برای ایجاد رویدادهای فاجعه آمیز و این باور گسترده است که مقررات دولتی بیشتری مورد نیاز است. این نگرانیها با توسعه سریع ابزارهای هوش مصنوعی با قابلیت فزاینده و قدرت محاسباتی گستردهای که در ایجاد آنها به کار میرود، تشدید میشود.
منبع : msn