حتى لو كان العنوان يبدو أشبه بالخيال العلمي للأشخاص الذين لا يرتبطون ارتباطًا وثيقًا بالتكنولوجيا، فإن الذكاء الاصطناعي سيؤدي إلى انقراض البشرية إذا لم يتم التحكم فيه.
بعد ذلك في أبريل 2023، تحدث إيلون ماسك وغيره من خبراء التكنولوجيا الخطر العام الذي يمكن أن ينتجه الذكاء الاصطناعي وعلى المستوى المجتمعي، جاء دور الرؤساء التنفيذيين لكبرى الشركات المطورة للذكاء الاصطناعي لدق ناقوس الخطر من خلال رسالة مفتوحة.
ومن بين 350 موقعًا على الرسالة المفتوحة التي أطلقتها المنظمة غير الربحية “Center For AI Safety” ((CAIS)، ويضم: سام التمان، الرئيس التنفيذي للشركة OpenAI، رؤساء الشركات AI DeepMind, Antrophic ولكن أيضًا المديرين التنفيذيين من شركات Microsoft وGoogle، الذين يقومون أيضًا بتطوير لغات الذكاء الاصطناعي الواسعة.
وانضموا إلى مجموعة من الباحثين والأساتذة في هذا المجال للتعبير عن أنفسهم القلق من أن الذكاء الاصطناعي قد يؤدي إلى انقراض البشرية إذا لم يأخذ صناع القرار السياسي هذه القضية على محمل الجد.
وتقول الرسالة المفتوحة إن تأثيرات الذكاء الاصطناعي غير المنظم على المستوى العالمي يمكن أن تنتج أضرارًا تعادل أضرار حرب نووية أو جائحة خارج عن السيطرة تمامًا.
هل سيؤدي الذكاء الاصطناعي إلى انقراض البشرية؟
ومن المرجح أن يستيقظ أصحاب القرار في الوقت المناسب ويبحثون عن حلول لتنظيم هذه الخطوة الهائلة التي اتخذتها التكنولوجيا. وبطبيعة الحال، قبل اتخاذ القرارات، يجب عليهم أن يدركوا ما هي المخاطر التي تأتي مع فوائد الذكاء الاصطناعي.
الذكاء الاصطناعي لا يعني فقط ChatGPT, Microsoft 365 Copilot أو Google Bard. يتم استخدام نماذج الذكاء الاصطناعي التوليدي في الدواءوالبحث والروبوتات والأتمتة والتعليم والتمويل والتجارة، بالإضافة إلى العديد من المجالات الأخرى التي تقدم فيها المساعدة الحقيقية.
AI كما يمكن استخدامه لأغراض تدميرية، ويتعلق بهذا الجانب الخوف من أن يؤدي الذكاء الاصطناعي إلى انقراض البشرية. التلاعب بالمجتمع بهدف خلق التوتر بين الجماهير، وصولا إلى تطوير أسلحة ذكية قادرة على تجاوز الذكاء البشري واتخاذ القرارات بشكل مستقل. إنها تقنية قادرة على التعلم بنفسها وتقييم المواقف والتصرف.

المشكلة الأكبر هي أن أنماط اللغة الواسعة AI ((LLM) متاحة لأي شخص.
كان الانشطار النووي خطوة كبيرة للبشرية جلبت فوائد ومخاطر كبيرة. إن الطاقة التي ينتجها الانشطار النووي تشكل موردا هائلا وفائدة حقيقية، في حين أن الأسلحة النووية يمكن أن تكون كارثية على البشرية. ومن ناحية أخرى، فإن الوقود النووي ليس في متناول الجميع، كما هو الحال بالنسبة لنماذج الذكاء الاصطناعي. اليورانيوم (U-235) أو البلوتونيوم 239 لن يتمكن أي شخص من العثور عليه بسهولة العثور على جهاز كمبيوتر يمكنه تشغيل لغة بايثون.
ومع ذلك، هناك شيء واحد مؤكد. الذكاء الاصطناعي سيؤدي إلى انقراض البشريةفقط إذا سمحت الإنسانية بذلك. إذا لم يتمكن الإنسان من التحكم في قوى الطبيعة، فلا يزال من الممكن التحكم في الذكاء الاصطناعي (آمل).