پنج‌شنبه 01 آذر 1403 - 21 Nov 2024
تاریخ انتشار: 1402/01/09 13:32
کد خبر: 14675

هشدار پولدارترین مرد جهان: هرچه زودتر جلوی این تهدید بزرگ را بگیرید!

اخیراً، پیشرفت‌های بسیاری در حوزه هوش مصنوعی در دنیای فناوری رخ داده است که این پدیده به یکی از جدیدترین و مهم‌ترین مسائل عرصه فناوری تبدیل شده است. با این حال، بسیاری از بزرگان و متخصصان فناوری نیز از پیامدهای آن نگران هستند.

به گزارش ستاره پارسی: گروهی از پژوهشگران به نام در کنار شخصیت‌های مشهور دنیای فناوری چون ایلان ماسک با انتشار نامه‌ای سرگشاده از تمام آزمایشگاه‌های هوش مصنوعی در سراسر جهان درخواست کردند تا کار توسعه سیستم‌های بزرگ هوش مصنوعی را به حالت تعلیق درآورند. آن‌ها نگران «ریسک‌های بزرگ پیش‌ روی جامعه و بشریت» در صورت توسعه غیرقابل کنترل هوش مصنوعی هستند.

ورج گزارش داد، این نامه سرگشاده را موسسه‌ای غیرانتفاعی به نام «آینده زندگی» منتشر کرده و در آن به رقابت خارج از کنترل آزمایشگاه‌های هوش‌ مصنوعی برای توسعه و راه‌اندازی سیستم‌های یادگیری ماشین اشاره شده است. سیستم‌هایی که بر اساس متن نامه «هیچ کس حتی خالقانش نمی‌توانند به شکلی مطمئن کنترل، پیش‌بینی یا درکشان کنند.»

آن‌ها از آزمایشگاه‌های هوش مصنوعی در سراسر جهان درخواست کرده‌اند تا «بلافاصله حداقل برای شش ماه آموزش تمام سیستم‌های هوش مصنوعی بزرگتر از GPT-4 را معلق کنند. این تعلیق باید برای عموم قابل اعتبارسنجی باشد و همه بازیگران بزرگ این عرصه را شامل شود.»

نویسندگان نامه از دولت‌ها درخواست کرده‌اند که در صورت بی‌توجهی آزمایشگاه‌ها، خود دست به کار شده و این تعلیق موقت را عملی کنند.

در کنار ایلان ماسک، امضای چهره‌های مشهوری چون استیو وزنیاک هم‌بنیان‌گذار اپل، یوال نوح هراری نویسنده، یان تالین هم‌بنیان‌گذار اسکایپ، اندرو یانگ سیاستمدار و تعدادی از پژوهشگران برجسته حوزه هوش مصنوعی به چشم می‌خورد. فهرست کامل امضاکنندگان نامه اینجا قابل مشاهده است.

البته بعید به نظر می‌رسد که این نامه در حالی که پژوهش درباره هوش مصنوعی داغ‌تر از هر زمانی شده، اثری داشته باشد. هم اکنون بزرگترین غول‌های دنیای فناوری از مایکروسافت و گوگل گرفته تا دیگران به سرعت درحال معرفی محصولات تازه در این حوزه هستند و به نظر نمی‌رسد که تصمیمی برای کند کردن این روند داشته باشند.

در نقطه مقابل نویسندگان این نامه باور دارند که دیدگاه توسعه هوش مصنوعی باید با تمام محصولات پیشین متفاوت باشد و در این عرصه نمی‌توان محصول را راه‌اندازی کرد و بعد دنبال رفع خطاهایش رفت: «آزمایشگاه‌های هوش مصنوعی و کارشناسان مستقل باید از این تعلیق برای تهیه مجموعه‌ای از پروتکل‌ها برای طراحی و پیاده‌سازی ایمن هوش مصنوعی پیشرفته استفاده کنند.»


کپی لینک کوتاه خبر: https://setareparsi.com/d/4888mm