کارشناسان برجسته جهان فن‌آوری بار دیگر با انتشار بیانیه‌ای نسبت به دست کم گرفتن خطرات هوش مصنوعی هشدار دادند. آن‌ها خطرات هوش مصنوعی را به اندازه بیماری‌های همه‌گیر یا جنگ هسته‌ای ارزیابی کردند. این بیانیه که توسط صدها دانشمند و مدیر برجسته امضا شده است، تنها شامل یک جمله است: «کاهش خطر نابودی توسط هوش مصنوعی باید یک اولویت جهانی در کنار سایر خطرات اجتماعی مانند بیماری‌های همه‌گیر و جنگ هسته‌ای باشد.» سم آلتمن، رئیس شرکت پژوهشی غیرانتفاعی هوش مصنوعی اوپن‌ای‌آی (OpenAI) سازنده بات مکالمه چت‌جی‌پی‌تی (ChatGPT) و جفری هینتون، نماد تحقیقات هوش مصنوعی از جمله امضاکنندگان این بیانیه هشداردهنده هستند که توسط مرکز غیرانتفاعی ایمنی هوش مصنوعی (CAIS) منتشر شده است. این هشدار دو ماه پس از آن منتشر شد که «مؤسسه آینده زندگی» Future of Life Institute نامه سرگشاده مشابهی را با امضای برخی از مدیران مشهور و چهره‌های شناخته‌شده دنیای فن‌آوری از جمله ایلان ماسک مالک توییتر، اسپیس ایکس و مدیر عامل شرکت تسلا، و استیو وزنیاک از بنیان‌گذاران شرکت اپل منتشر کرد. این گروه خواستار توقف تحقیقات هوش مصنوعی برای جلوگیری از خطرات برای بشریت شد. در این نامه نیز آمده بود: «سیستم‌های هوش مصنوعی که قابلیت رقابت با هوش انسانی را دارند، می‌توانند خطرات بسیار جدی را متوجه انسانیت و جوامع کنند.» مقامات بلندپایه آمریکا و اتحادیه اروپا امروز در لولیا، سوئد، برای نشست دو روزه شورای تجارت و فن‌آوری (TTC) دیدار می‌کنند. آن‌ها از جمله باید در مورد هوش مصنوعی و سایر فن‌آوری‌های آینده توصیه‌هایی ارائه کنند. آنتونی بلینکن وزیر امور خارجه آمریکا و مارگرت وستاگر معاون کمیسیون اروپا در این مذاکرات شرکت خواهند کرد. رویترز با استناد به پیش‌نویس بیانیه این نشست نوشته است که همکاری در تعیین حداقل استانداردها برای پردازش‌ تصمیم‌گیری خودکار هوش مصنوعی مولد مانند چت‌جی‌پی‌تی باید مورد بحث قرار گیرد.