بهگفته ویتالیک بوترین، خالق اتریوم، هوش مصنوعی فوق پیشرفته در صورتی که کنترلنشده باقی بماند، «شانس جدی» برای پیشیگرفتن از انسان و تبدیلشدن به «گونه برتر» در سیاره را دارد.
او خاطرنشان کرد که این اتفاق به چگونگی مداخله انسان در پیشرفتهای هوش مصنوعی بستگی خواهد داشت. بوترین عقیده دارد که هوش مصنوعی با سایر اختراعات بشر بهطور اساسی متفاوت است؛ زیرا میتواند نوع جدیدی از ذهن ایجاد کند که بر خلاف منافع انسان است.
بنیانگذار اتریوم هشدار داد که برخلاف تغییرات آبوهوایی، بیماریهای همهگیر یا جنگ هستهای، هوش مصنوعی هوشمند میتواند بهطور بالقوه به بشریت پایان دهد و هیچ بازماندهای باقی نگذارد. بهویژه اگر انسانها را تهدیدی برای بقای خود بداند.
او ادامه داد: «خطای هوش مصنوعی به طور بالقوه میتواند بدترین نتیجه قابل تصور را ایجاد کند. یعنی به معنای واقعی کلمه میتواند باعث انقراض انسانها شود.» همبنیانگذار اتریوم هشدار میدهد: «اگر هوش مصنوعی فوق هوشمند علیه بشریت قیام کند، حتی مریخ هم ممکن است جای امنی برایمان نباشد.»
بوترین به نظرسنجی ماه آگوست ۲۰۲۲ اشاره کرده که بیش از ۴۲۷۰ محقق یادگیری ماشین در آن اظهارنظر کردند. ۵ تا ۱۰ درصد این افراد احتمال میدادند که هوش مصنوعی میتواند انسان را به قتل برساند.
با این حال، بوترین میگوید چنین ادعاهای افراطی بعید به نظر میرسند. اما او تأکید دارد که راههایی نیز برای غلبه بر چالشهای احتمالی پیشروی انسانها وجود دارد.
منبع cointelegraph.com