مجله انگجت: خطر هوش مصنوعی همتراز با بمب هستهای است
- انتشار: ۹ جوزا ۱۴۰۲
- سرویس: فناوری اطلاعات
- شناسه مطلب: 140807
بزرگان صنعت کامپیوتر خطر هوش مصنوعی را همتراز با بیماریهای واگیردار و بمب هسته ای می دانند.
به نقل از رسانههای خارجی، جمعی از بزرگان صنعت هوش مصنوعی در بیانیه ای یک جمله ای خطر هوش مصنوعی را همتراز با جنگ اتمی و بیماری های واگیردار اعلام کردند.
به گزارش مجله اینترنتی فناوری انگجت، سازمان غیرانتفاعی Center for AI Safety بیانیهای را در یکجملهای منتشر کرده است که میگوید: «کاهش ریسک انقراض توسط هوش مصنوعی باید در کنار سایر ریسکهای بزرگ اجتماعی از جمله بیماری های همهگیر و جنگ هستهای، بهعنوان یک اولویت جهانی در نظر گرفته شود.»
این نامه توسط ۳۵۰ نفر از بزرگان صنعت کامپیوتر از جمله «سم آلتمن»، مدیرعامل شرکت OpenAI، «دمیس هاسابیس»، مدیرعامل دیپمایند گوگل و «داریو آمودی»، مدیرعامل شرکت Anthropic امضا شده است.
«جفری هینتون» و «یوشوئا بنجیو» که دو برنده جایزه تورینگ درزمینه شبکههای عصبی هستند و اغلب بهعنوان پدرخواندگان هوش مصنوعی مدرن شناخته میشوند نیز از جمله امضا کنندگان این بیانیه هستند.
این دومین بیانیه در اعلام خطر هوش مصنوعی است، پیش از این در ماه مارچ نیز ایلان ماسک، استیو وزنیاک (از بنیانگذاران شرکت اپل) و هزار نفر دیگر خواستار توقف ۶ ماهه توسعه هوش مصنوعی شدند تا مردم نسبت به آن شناخت بیشتری پیداکنند.
تفاوت این بیانیه در اینجاست که تنها در یک جمله به بیان یک نگرانی عمومی درباره فناوری هوش مصنوعی پرداخته و از ورود به جزئیاتی که ممکن است بر سر آنها اختلافاتی وجود داشته باشد، خودداری کرده است.
سم آلتمن و دیگر مدیران OpenAI (شرکت سازنده chatGPT) هفته گذشته در مطلبی در وبلاگ این شرکت اعلام کردند که به سازمانی بینالمللی شبیه به آژانس انرژی اتمی نیاز است تا بتواند هوش مصنوعی را در سطح جهانی کنترل کرد. پیشتر نامه سرگشاده دیگری توسط سازمان غیرانتفاعی Future of Life با امضای افرادی مثل ایلان ماسک منتشر شده بود که درخواست توقف توسعه مدلهای پیشرفته هوش مصنوعی را داشت.
نظرات(۰ دیدگاه)