یک بیانیه عجیب و شگفتانگیز مطرح شد که خطرات بیسابقهای را نشان میدهد که ممکن است در پیش باشد. فرمول آن بر عدم قطعیت پیرامون آینده سیاره، حتی برای تصمیم گیرندگان در این دنیای دلهره آور تاکید میکند. اخیراً در اجلاس سالانه همکاری اقتصادی آسیا و اقیانوسیه (APEC)، جو بایدن، رئیس جمهور آمریکا و شی جین پینگ، رئیس جمهور چین توافقی کردند. این توافق میگوید که تصمیمگیری در مورد استفاده از سلاح هستهای باید در اختیار انسان باشد نه هوش مصنوعی. رهبران همچنین بر اهمیت ارزیابی دقیق خطرات مرتبط با توسعه فناوری هوش مصنوعی نظامی تأکید کردند. همینطور گفتند چنین پیشرفتهایی باید با «عقل و مسئولیت» انجام شود.
این اولین نمونه از بیانیه مشترک دو کشور در مورد هوش مصنوعی و پیامدهای نظامی آن است. با وجود اختلافات قابل توجه سیاسی و اقتصادی، شی جین پینگ به بایدن اطلاع داد. که «چین قصد همکاری با دولت جدید آمریکا و ادامه کاوش در مسیر درست» به سوی درک متقابل و «دستیابی به همزیستی مسالمتآمیز بلندمدت» است.
این بیانیه توجه چندانی را از سوی رسانههای غربی یا آمریکایی به خود جلب نکرد. این شاید عجیب نباشد، زیرا اظهارات یا اقدامات رئیس جمهور ایالات متحده در روزهای رو به پایان دولتش اغلب مورد توجه محدودی قرار میگیرد.
بیشتر بخوانید: رگولاتور اروپایی در حال آسیب به Meta AI
سلاحهای هستهای کشنده
سلاحهای هستهای تا پایان جنگ جهانی دوم روی انسانها آزمایش نشدند. زمانی که ایالات متحده دو بمب اتمی را بر روی هیروشیما و ناکازاکی انداخت که منجر به فوت حداقل 129000 نفر و اثرات مخرب درازمدت سلامتی شد. این بمبارانها امپراتور ژاپن را مجبور به تسلیم بدون قید و شرط کرد.
از آن زمان، سلاحهای هستهای بر روی انسانها استفاده نشده است. همینطور از یک عامل بازدارنده به نمادی برای نابودی جمعی بالقوه برای بشریت و تمام زندگی روی زمین تبدیل شد. بنابراین، یک اصل اساسی در استفاده از این سلاحهای کشنده پدیدار میشود. در حالی که مانور سیاسی مجاز است و اغلب برای به حداکثر رساندن دستاوردهای اقتصادی و اجتماعی ضروری است. اما استفاده از سلاحهای هستهای همچنان محدود است و شرط بقا و ادامه زندگی است.
علیرغم این قانون طلایی، هر ملتی در آرزوی عضویت در باشگاه هستهای و قرار گرفتن در میان معدود برگزیدگانی است که این سلاح را در اختیار دارند. که حداقل تضمین میکند که در صورت رویارویی با دشمن، با شکست ویرانگری مواجه نخواهند شد. در حقیقت، هیچ روش مشخصی برای ارزیابی تأثیر یک بمب هستهای وجود ندارد. استفاده از سلاح هستهای عواقبی جبرانناپذیر دارد په برسد که به هوش مصنوعی بیافتد.
با این حال، اگر اعضای باشگاه هستهای هزاران موشک هستهای و هیدروژنی را در اختیار هوش مصنوعی بگذارند، چه اتفاقی میافتد؟ این فناوری شروع به انجام وظایفی کرده که قبلاً به انسان محدود میشد و قادر به تولید تصاویر و مختصات واقعی، تقلید صداها و سایر قابلیتهایی است که در چشم انداز فناوری سالهای گذشته وجود نداشت.
چگونه چنین اطلاعاتی که حتی تنظیم نشدهاند میتواند نه تنها زندگی میلیاردها انسان و خود زمین بلکه کل منظومه شمسی را که ما در آن زندگی میکنیم کنترل کند؟ علاوه بر این، این نگرانی به جامعه اطلاعاتی، مراکز تحقیقاتی و موسسات دانشگاهی در ایالات متحده نیز مرتبط است. آنها باید نسبت به تهدیدات احتمالی ناشی از سازمانهای خارجی متخاصم که به قابلیتهای پیشرفته هوش مصنوعی دسترسی دارند و میتوانند از آنها برای مدیریت و فعالسازی استفاده کنند ابراز نگرانی کردهاند.