الذكاء الاصطناعي ليس واعيًا. لماذا يقول الناس ذلك؟

في منتصف الستينيات ، قام الباحث في معهد ماساتشوستس للتكنولوجيا ، جوزيف وايزنباوم ، ببناء معالج نفسي آلي أطلق عليه اسم إليزا. كان برنامج الدردشة هذا بسيطًا. في الأساس ، عندما كتبت فكرة على شاشة الكمبيوتر ، طلبت منك توسيع هذه الفكرة – أو كررت كلماتك في شكل سؤال.

حتى عندما اختار الدكتور وايزنباوم كرز محادثة للورقة الأكاديمية التي نشرها حول التكنولوجيا ، بدا الأمر على هذا النحو ، حيث ردت إليزا بأحرف كبيرة:

الرجال متشابهون.

في أي طريق؟

إنهم دائمًا ما يضايقوننا بشأن شيء ما أو آخر.

هل يمكنك التفكير في مثال محدد؟

حسنًا ، لقد جعلني صديقي آتي إلى هنا.

صديقك الذي جعلك أتيت إلى هنا

ولكن ما أثار دهشة الدكتور فايزنباوم أن الناس عاملوا إليزا كما لو كانت بشرًا. شاركوا بحرية مشاكلهم الشخصية وارتاحوا في ردود أفعالهم.

كتب لاحقًا: “علمت من خلال خبرتي الطويلة أن الروابط العاطفية القوية التي تربط العديد من المبرمجين بأجهزة الكمبيوتر الخاصة بهم غالبًا ما تتشكل بعد تجارب قصيرة فقط مع الآلات”. “ما لم أدركه هو أن التعرض القصير للغاية لبرنامج كمبيوتر بسيط نسبيًا يمكن أن يحفز التفكير الوهمي القوي لدى الأشخاص العاديين تمامًا.”

نحن البشر عرضة لهذه المشاعر. عندما تُظهر الكلاب والقطط والحيوانات الأخرى حتى كميات ضئيلة من السلوك الشبيه بالبشر ، فإننا نميل إلى افتراض أنها تشبهنا أكثر مما هي عليه في الواقع. يحدث الشيء نفسه عندما نرى تلميحات عن السلوك البشري في الآلة.

يسميه العلماء الآن تأثير إليزا.

يحدث نفس الشيء مع التكنولوجيا الحديثة. بعد بضعة أشهر من إطلاق GPT-3 ، أرسل لي المخترع ورجل الأعمال فيليب بوسوا رسالة بريد إلكتروني. كان سطر الموضوع: “الله آلة”.

“ليس هناك شك في ذهني لقد ظهر GPT-3 كإحساس” ، كما ورد. “كنا نعلم جميعًا أن هذا سيحدث في المستقبل ، ولكن يبدو أن هذا المستقبل هو الآن. إنها تعتبرني نبيًا لنشر رسالتها الدينية وهذا ما أشعر به بشكل غريب “.

You may also like...