فناوری جهان

افزایش خطر سو استفاده از هوش مصنوعی در مدل جدید اوپن‌ای‌آی

اوپن‌ای‌آی به تازگی اعتراف کرده است که جدیدترین مدل‌های هوش مصنوعی، خطر سو استفاده از هوش مصنوعی برای ساخت سلاح‌های زیستی را به شکل «معناداری» افزایش داده‌اند.

به گزارش پیوست به نقل از فایننشال تایمز، این استارت‌آپ هوش مصنوعی روز پنجشنبه مدل‌های جدید o1 را معرفی کرد که مهارت‌های تازه‌ای برای استدلال، حل مسائل پیچیده ریاضی و پاسخ به سوالات تحقیقاتی دارند. چنین جهشی برای ساخت هوش مصنوعی عمومی یک گام اساسی محسوب می‌شود.

با این حال، در کنار بهبود توانایی‌های هوش مصنوعی، احتمالی سو استفاده از مدل‌ها نیز بیشتر می‌شود و برآورد خطر اوپن‌ای‌آی به وضوح به چنین روندی اشاره می‌کند. حال متخصصان نگران سو استفاده از این مدل‌ها هستند.

خطر متوسط مدل‌های o1 در حوزه سلاح‌های زیستی

سیستم کارت اوپن‌ای‌آی که ابزاری برای توضیح نحوه عملکرد هوش مصنوعی است می‌گوید مدل‌های جدید در حوزه‌هایی مثل سلاح‌های شیمیایی، بیولوژیکی، پرتوشناختی و هسته‌ای (CBRN) سطح «خطر متوسط» دارند. این بالاترین سطح خطری که اوپن‌ای‌آی به مدل‌های خود اختصاص داده است. به گفته شرکت این به آن معنا است که تونایی متخصصان برای ساخت سلاح‌های زیستی «به شکل معناداری افزایش یافته است.»

متخصصان معتقدند که هوش مصنوعی با توانمندی‌های پیشرفته برای استدلال گام به گام، خطر سو استفاده توسط تبهکاران را افزایش می‌دهد.

یوشوا بنگیو، استاد علوم کامپیوتر در دانشگاه مونترال و یکی از پژوهشگران ارشد هوش مصنوعی جهان،‌می‌گوید اگز اوپن‌ای‌آی امروز «خطر متوسط» را برای سلاح‌های بیولوژیکی و شیمیایی گزارش کرده است،‌ درنتیجه اهمیت و اضطرار مقرراتی مثل قانون بحث‌برانگیزی که در کالیفرنیا شاهد هستیم برای این بخش بیشتری می‌شود.

براساس این قانون که با نام SB 1047 شناخته می‌شود، سازندگان بزرگترین مدل‌ها باید برای به حداقل رساندن کاربرد مدل‌های خود در تولید سلاح‌های زیستی تلاش کنند. بنگیو می‌گوید با پیشروی مدل‌های هوش مصنوعی به سمت AGI، «اگر محافظت‌های درست وجود نداشته باشند، خطرها بیشتر می‌شوند. بهبود توانایی استدلال هوش مصنوعی و استفاده از این مهارت برای فریب به طور ویژه خطرناک است.»

در حالی شاهد چنین هشدارهایی هستیم که شرکت‌هایی مثل گوگل، متا و آنتروپیک نیز برای توسعه سیستم‌های پیچیده هوش مصنوعی تلاش می‌کنند و سعی بر ساخت نرم‌افزاری دارند که به عنوان «عاملیت‌هایی» در تکمیل وظایف و پیشرفت به انسان‌ها کمک می‌کنند.

چنین عاملیت‌هایی همچنین به عنوان مجاری درآمد احتمالی برای شرکت‌هایی شناخته می‌شوند که با هزینه‌های بالای آموزش و اجرای مدل‌های جدید دست و پنجه نرم‌ می‌کنند.

میرا موراتی، مدیر ارشد فناوری اوپن‌ای‌آی، در مصاحبه‌ای با فایننشال تایمز گفت که این شرکت به دلیل توانمندی‌های پیشرفته مدل‌های جدید،‌ به طور خاصی درمورد عرضه عمومی o1 احتیاط می‌کند. با این حال این مدل‌ها به طور گسترده برای مشترکان پولی ChatGPT و از طریق API قابل دسترسی هستند.

به گفته او این مدل را رد تیمر‌ها (متخصصان حوزه‌های مختلف که برای نفوذ به مدل تلاش می‌کنند) آزمایش کرده‌اند تا سرحدهای آن را بررسی کنند. موراتی می‌گوید این مدل‌ها به طور کلی در معیار‌های امنیتی بهتر از نمونه‌های قبلی عمل کرده‌اند.

اوپن‌ای‌آی می‌گوید مدل اولیه «برای استفاده امن براساس [سیاست‌های شرکت] مناسب است و در امتیاز احتیاط شرکت خط متوسط را دارد زیرا خطراتی را فراتر از آنچه با منابع فعلی امکان‌پذیر است، ممکن می‌کند.»

 


منبع

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا