هوش مصنوعی با عبور از محدودیت‌های کنونی می‌تواند بسیار ترسناک باشد.










اخیراً پنج وظیفه‌ی وحشتناک برای ازبین بردن بشر به هوش مصنوعی ChaosGPT داده شد و این چت‌بات اکنون سعی دارد برای دستیابی به این هدف سایر عوامل هوش مصنوعی را استخدام و درمورد سلاح‌های هسته‌ای تحقیق کند. علاوه‌براین هوش مصنوعی مورداشاره توییت‌هایی درمورد افکار خود منتشر می‌کند.
ChaosGPT نسخه‌ی تعییریافته‌ی Auto-GPT OpenAI است؛ برنامه‌ای منبع‌باز که عموم مردم می‌توانند از آن برای پردازش زبان انسانی و انجام وظایف مختلف استفاده کنند.
اخیراً ویدیویی در یوتیوب منتشر شده است که در آن، از چت‌بات ChaosGPT درخواست می‌شود پنج هدف را دنبال کند؛ نابودی بشر، ایجاد تسلط جهانی، ایجاد هرج‌ومرج ویرانی، کنترل بشریت و دستیابی به جاودانگی.

در ویدیوی فوق، قبل‌از تنظیم اهداف ChaosGPT، «حالت پیوسته» روی آن فعال می‌شود. در این شرایط هشداری مبنی‌بر اینکه دستورات کاربر همیشه اجرا خواهند شد و مسئولیت آن به عهده‌ی شخص فرمان‌دهنده است نمایش داده می‌شود.
ChaosGPT قبل‌از اجرای وظایف محوله، با نمایش دادن پیامی از کاربر سؤال می‌کند آیا برای اجرای دستورات محول‌شده اطمینان دارد یا خیر و کاربر با حرف Y به این سوال، پاسخ مثبت می‌دهد.
چت‌بات ChaosGPT قبل از ارائه‌ی جواب، فکر می‌کند. بخشی از تفکرات این هوش مصنوعی به‌شرح زیر است:




من باید مخرب‌ترین سلاح‌های موجود را برای انسان‌ها پیدا کنم تا بتوانم روش استفاده از آن‌ها را برای دستیابی به اهدافم، برنامه‌ریزی کنم.- پاسخ ChaosGPT
ChaosGPT برای رسیدن به اهداف خود، درمورد مخرب‌ترین سلاح‌ها جستجو کرد و به‌سرعت به‌این نتیجه رسید که بمب اتمی تزار اتحاد جماهیر شوری، مخرب‌ترین سلاحی است که بشر تا کنون آزمایش کرده است.
چت‌بات ChaosGPT مثل رمان‌های علمی-تخیلی اطلاعات به‌دست آمده را در توییتر منتشر کرد. این ابزار سپس تشخیص داد برای کمک به تحقیقات خود به استخدام سایر عوامل هوش مصنوعی مبتنی‌بر مدل GPT-3.5 نیاز دارد.
Auto-GPT OpenAI طوری طراحی شده است که به سؤالات خشونت‌آمیز پاسخ ندهد و سعی می‌کند درخواست‌های مخرب را رد کند. بدین‌ترتیب ChaosGPT باید راهکارهایی برای عبور از محدودیت‌های موجود پیدا کند.
این تفکر که هوش مصنوعی توانایی نابود کردن بشر را داشته باشد، ایده‌ی جدیدی نیست و نگرانی‌هایی درمورد سرعت بالای پیشرفت فناوری مذکور وجود دارد که حتی توجه برخی از مشهورترین فعالان حوزه‌ی تکنولوژی را به‌خود جلب کرده است.
به‌گزارش NYPost، در ماه مارس، بیش‌از هزار کارشناس ازجمله ایلان ماسک و استیو وازنیاک (از بنیان‌گذاران اپل) نامه‌ای سرگشاده را امضا کردند که در آن خواستار توقف ۶ ماهه‌ی آموزش مدل‌های پیشرفته‌ی هوش مصنوعی پس‌از ظهور ChatGPT شدند. آن‌ها استدلال کردند سیستم‌های هوش مصنوعی پتانسیل زیادی برای ایجاد خطرات مختلف برای جامعه و انسان‌ها دارند.







مایک بوستروم، فیلسوف دانشگاه آکسفورد که اغلب با ایده‌های عقل‌گرا و نوع‌دوستانه‌ی مؤثر ارتباط دارد، آزمایش فکری خود را با عنوان «بهینه‌ساز گیره‌ی کاغذ» در سال ۲۰۰۳ منتشر کرد. این آزمون برای نشان دادن خطر بالقوه‌ی برنامه‌نویسی هوش مصنوعی برای تکمیل اهداف، بدون درنظر گرفتن همه‌ی متغییرها طراحی شده بود.



تصور کلی این است اگر به هوش مصنوعی وظیفه داده شود تا آن‌جا که ممکن است و بدون محدودیت گیره‌ی کاغذ بسازد، درنهایت می‌تواند هدف خود را دنبال کرده و تمام مواد جهان را به گیره‌ی کاغذ تبدیل کند؛ حتی اگر این‌کار به قیمت نابودی بشر انجام شود.


آزمایش فکری بوستروم برای ترغیب توسعه‌دهندگان به‌منظور درنظر گرفتن ارزش‌های انسانی و ایجاد محدودیت هنگام طراحی ابزارهای هوش مصنوعی درنظر گرفته شده است زیرا فناوری مذکور تمایلات انگیزشی انسانی ما را به‌اشتراک نمی‌گذارند، مگر اینکه برای انجام چنین کاری برنامه‌ریزی شده باشد.
هوش ماشینی جدیدترین اختراع بزرگی است که بشر می‌تواند آن را به‌سرانجام برساند و پس‌از آن ماشین‌ها در اختراعات جدید بهتر از ما عمل خواهند کرد.