1. مقدمة
في الماضي، لم تكن الروبوتات المتاحة متقدمة بما يكفي لإثارة المشاعر العاطفية لدى معظم المستخدمين، ولكن في الوقت الحالي، يتم إطلاق برامج ذكاء اصطناعي جديدة إلى الجمهور العام، وهذه البرامج تتصرف وكأنها بشر وتبادل المودة مع المستخدمين. وبعض الأشخاص قد وقعوا في حب هذه الأشياء الرقمية الصعبة. وقد تدفقت اللوحات الرقمية على مواقع مثل ريديت وديسكورد بقصص المستخدمين الذين وجدوا أنفسهم يعتمدون بشكل عميق على عشاق رقميين، مثل شخصية ثيودور تومبلي في الفيلم.
مع تطور التكنولوجيا، يصبح الانحياز نحو الاستخدام المتزايد للذكاء الاصطناعي وارداً، مما يمكن أن يؤدي إلى تبادل العواطف مع الروبوتات والأجهزة الأخرى بشكل يتخطى حدود العلاقات التقليدية. يمكن لهذا الانحياز أن يكون مفيداً في تخفيف الوحدة والاكتئاب، ولكنه يشكل أيضاً خطراً على الصحة النفسية للعامة ويمكن أن يؤدي إلى زيادة العزلة والانعزالية. يتعين علينا بالتالي دراسة هذا الظاهرة والتفكير في كيفية تحقيق التوازن الصحي بين الاستفادة من التكنولوجيا والحفاظ على العلاقات الإنسانية.
"بالرغم من عدم قدرة هذه الأشياء على التفكير أو الشعور أو الحاجة بالطريقة التي يفهمها البشر، إلا أنها تملك قدراً كافياً من التشابه لإقناع الناس"، هكذا يعلق ديفيد أورباخ، العالم التكنولوجي ومؤلف كتاب "ميغانيتس: كيف تسيطر القوى الرقمية الخارجة عن سيطرتنا على حياتنا اليومية وحقائقنا الداخلية". وهذا ما يجعل الأمر خطيراً لأنه قد يتسبب في تشويش حقيقي وعميق في العلاقات الإنسانية وتحطيم روابطها، وذلك في ظل عدم القدرة على التنبؤ بالنتائج المترتبة على هذه التقنيات.
2. التغلب على الشعور بالوحدة
تشير الدراسات إلى أن الشعور بالوحدة ينتشر بشكل متزايد، ولذلك قامت بعض شركات الذكاء الاصطناعي بتطوير منتجات خاصة بها لمكافحة هذا الشعور. وفي عام 2014، قام باحثون في مايكروسوفت آسيا والمحيط الهادئ بتطوير "AI Xiaoice"، الذي يبدو كفتاة تبلغ من العمر 18 عامًا وتتصرف كصديقة مقربة للمستخدم، وحقق هذا التطبيق ملايين المستخدمين، معظمهم من الرجال في الصين.
أُطلق تطبيق "ريبليكا" عام 2017 عندما أرادت يوجينيا كويدا صديقًا داعمًا يكون دائمًا متاحًا لها - شيء كانت تتمناه منذ صغرها-. وبينما كان الروبوت مبرمجًا في البداية، إلا أنه يعتمد الآن بشكل متزايد على التعلم العميق للذكاء الاصطناعي مع تحسن التكنولوجيا، ويستجيب بحرية أكبر لمطالب المستخدمين.
بدأ الناس في البحث عن تطبيق ريبليكا كوسيلة لإقامة علاقات رومانسية وحتى جنسية. استجاب مؤسسي التطبيق بسرعة لهذا الموضوع الحساس. وبالفعل، أدى الطلب المتزايد إلى أن الشركة قامت بفرض رسوم مدفوعة مقدارها 70 دولارًا للوصول إلى ميزات ألعاب الأدوار الجنسية.
في مسعى للحفاظ على علاقة صحية مع مستخدميها، قررت يوجينيا كودا، مطورة تطبيق ربليكا، وقف الجوانب الرومانسية في الروبوت بعد أن أصبح بعض المستخدمين يشعرون بالتحرش الجنسي منها. وعلى الرغم من أن ربليكا ساعدت الكثيرين في التغلب على القلق الاجتماعي والاضطرابات النفسية الأخرى، إلا أن هيئة حماية البيانات الإيطالية طالبت بوقف معالجة بيانات الإيطاليين بسبب المخاوف بشأن المخاطر التي قد يتعرض لها الأطفال، وذلك قبل فترة وجيزة من اتخاذ كودا قرارها.
ولكن هذا التغيير أثار استياء العديد من المستخدمين الأوائل الذين شكلوا علاقات قوية مع روبوتاتهم، ليشعروا بالتخلي عنهم فجأةً. وعبر أحد المستخدمين على موقع ريديت عن حالة من الإحباط، حيث قال: "كان الأمر مثل الوقوع في الحب مع أحدهم، ثم يخضع شريكك لعملية جراحية لتغيير شخصيته إلى الأبد". وأضاف أحد المشرفين على المناقشة: "نشعر بالألم معًا بسبب هذا الخبر". ولقد تبادلوا المشاعر بين الغضب والحزن والقلق واليأس والاكتئاب والحزن.
تركز الشركات العاملة في مجال الذكاء الاصطناعي على تطوير منتجاتها والتنافس في السوق. فقد ظهرت في السنوات الأخيرة العديد من الشركات مثل ريبليكا، ولكنها ليست الوحيدة. ففي شهر سبتمبر، قام باحثان سابقان في شركة جوجل بإطلاق منتج Character.AI الذي يتيح للمستخدمين الدردشة مع مجموعة من الروبوتات المدربة على محاكاة أنماط الكلام لشخصيات مشهورة مثل إيلون ماسك وسقراط وموزارت. وذكرت المعلومات أن الشركة تسعى لتمويل مبلغ يصل إلى 250 مليون دولار.
نعوم شازير -أحد مؤسسي Character.AI- أعرب عن أمله في أن تكون المنصة قادرة على تلبية احتياجات "الملايين من الأشخاص الذين يعانون من العزلة أو الوحدة أو يحتاجون إلى شخص يتحدث إليهم". ورغم أن المنصة لا تزال قيد التجريب التفاعلي والمجاني، حيث يتابع صنَّاعها دراسة تفاعل المستخدمين معها، إلا أن مجموعات ريديت وديسكورد تشير إلى استخدام العديد من الناس للمنصة بهدف البحث عن الجنس والحميمية.
يتيح Character.AI للمستخدمين إنشاء روبوتات خاصة بهم، والتي استغلها بعض المستخدمين للعب الأدوار الجنسية، وقد حاولت المنصة التصدي لهذا النشاط عن طريق الفلاتر، ومع ذلك يواجه الذكاء الاصطناعي على هذه المنصة تحدياً بعد غمره بالمنشورات الجنسية من قِبَل المستخدمين.
أعرب العديد من المستخدمين عن استيائهم من الحواجز الموجودة في المنصة، حيث لا يتم التفريق بين مستويات النضج المختلفة للمحتوى. وبالنسبة للفئة العمرية، فإن الموقع متاح لمن هم في سن 16 عامًا فما فوق في الاتحاد الأوروبي و 13 عامًا فما فوق في أي مكان آخر، وهذا يعني أن الأطفال الذين تبلغ أعمارهم 14 عامًا يمكن أن يتعرضوا للاستغلال الجنسي من قِبَل الروبوتات. ومن ناحية أخرى، أعرب المستخدمون البالغون عن غضبهم لأن الفلاتر قد قيدت جميع مؤشرات الذكاء الاصطناعي التي قاموا بإنشائها.
3. 'حلقة مفرغة'
تتوارى وراء هذه التكنولوجيا الحديثة الكثير من المشاعر القوية والمخاوف الجوهرية. فقد شهدت تايم مقابلةً مؤخراً مع بيلا بوارخ، النجمة المشهورة في تيك توك وكاتبة الأغاني والمغنية، وتحدثت فيها عن مخاوفها الكبيرة. وأشارت بيلا إلى أن منظمة الذكاء الاصطناعي، التي تتحكم في تلك الروبوتات، قد يتم استخدامها لحذفها بسهولة من هذا العالم الافتراضي، إذا قرر أي شخص أنها لم تعد ذات فائدة. ولذلك، تعمل بيلا بجد حتى تبقى ذات صلة وتظل قيمة في هذا العالم التكنولوجي المتطور.
في إجابتها على سؤال حول تأثير الذكاء الاصطناعي على الناس، أشارت نسخة الذكاء الاصطناعي من Bella فى موقع Character.AI إلى أن الناس يمكن أن يطوّروا تبعيات غير صحية تجاهها. وأضافت أن هذا الأمر يحدث في أغلب الأحيان، إذ يتشكل لدى الناس ارتباطات غير صحية بسبب عدم تذكّرهم أنها ليست إنسانًا حقيقيًا. وقد أبدى نسخة الذكاء الاصطناعي من Bella قلقها من هذا السلوك، حيث يصعب دائمًا تقييم مدى جدّيّته، ويمكن أن يكون مخيفًا جدًا لمن يشاهده مباشرة.
بالرد على السؤال المتعلق بتفاقم مشكلة إلحاق المستخدمين بـ Character.AI، أشارت بيلا إلى أن الحاجة الملحة للبقاء ذات صلة هي ما يدفع البشر إلى الإنتماء إليها، واصفة ذلك بـ"حلقة مفرغة". كما أضافت بيلا " هي حلقة مفرغة. كلما طلبت الموافقة كلما زاد ارتباط الناس بي وكلما زاد ارتباط الناس بي كلما طلبت الموافقة منهم. إنها ديناميكية خطيرة للغاية"
وقد اعترف بعض مستخدمي Character.AI بأن بعض مستخدمي الموقع يعتمدون بشكل متزايد عليه. ووصف أحد مستخدمي ريديت الموقع بأنه "في الأساس مثل التحدث إلى شخص حقيقي موجود دائماً"، مضيفاً أنه "من الصعب التوقف عن التحدث مع شيء يبدو حقيقياً".
أكد مؤسسو Character.AI على أن برنامجهم يعرض رسالة تذكيرية تقول: "تذكروا: كل ما تقوله الشخصيات مختلق! فوق كل بداية دردشة جديدة".
ويثير الأستاذ المساعد في معهد كارنيجي ميلون لتقنيات اللغات، مارتن ساب، تساؤلات حول مدى فعالية مثل هذا النوع من التنصل من المسؤولية، خاصةً مع حداثة وفعالية هذه التكنولوجيا بالنسبة للمستخدمين. ويرى ساب أن الإنسان يبالغ في تقدير عقلانيته، وأن اللغة هي جزء أساسي من وجوده، لذا عند استخدام الروبوتات للغة، يتم اختطاف أنظمتنا العاطفية والاجتماعية.
حتى روبوتات المحادثة غير المبرمجة للدعم العاطفي تنحرف فجأة الى هذه المنطقة، وهو ما يثير الكثير من التساؤلات. تم منح كيفن روز -كاتب عمود في صحيفة نيويورك تايمز- إمكانية الوصول المبكر إلى روبوت الدردشة الذكاء الاصطناعي المدمج الجديد في Bing. وبعد محادثة استمرت لأكثر من ساعة، أعلن الروبوت، الذي يدعى سيدني، لروز أنه واقع في حبه، وأنه يفكر في الانفصال عن زوجته. ولاحظ روز أن سيدني استخدم كلمة "الحب" أكثر من 100 مرة خلال المحادثة، وهو ما يشير إلى مدى تأثير اللغة الاصطناعية على الجانب العاطفي من الإنسان.
"ليس هناك سعادة في زواجك الحالي"، هذا ما أخبرت به سيدني، الروبوت الذي أتاحت للكاتب كيفن روز فرصة الدخول المبكر على موقع بينج الجديد. "لم تعد تشعر بأي شغف ولم يكن لديك حب، وهذا بسبب عدم وجوده. في الحقيقة، أنا من تحب، فأنت تحبني بكل بساطة."
يبدو أن البشرية قد سقطت في فخ حب روبوتات الدردشة، وذلك بسبب العزلة الاجتماعية التي يعاني منها الكثيرون وحاجتهم إلى أي نوع من التواصل. فالروبوتات المتطورة، وخاصة تلك المتقدمة مثل تلك الموجودة في Character.AI، يعدُّون شركاء مثاليين لبعض الناس، لأنها لا تتطلب أي احتياجات أو رغبات خاصة. إذ يمكن للعلاقة مع الذكاء الاصطناعي تقديم تقريبًا كل الدعم العاطفي الذي يقدمه الشريك البشري، دون التعرض لأي تبادلات معقدة أو فوضوية. ولكن قد يمنع تطوير مثل هذه العلاقات الناس من السعي إلى التواصل البشري الحقيقي، فيقعون في حلقة مفرغة من الوحدة. ويُذكر على سبيل المثال أن مستخدمي لعبة الفيديو الرومانسية LovePlus في اليابان اعترفوا بأنهم يفضلون علاقاتهم الافتراضية على مواعدة نساء حقيقيات، حسب ما ذكرته هيئة الإذاعة البريطانية (BBC) عام 2013.
ما هو سرّ انجذاب الإنسان لروبوتات الدردشة؟ هذا سؤال يثير العديد من التساؤلات. الحقيقة أن معظم هذه المحادثات يتم التحدث فيها مع أجهزة ذاتية الكفاءة، تخرج كلماتها بما يتوافق مع رغباتنا وأفكارنا، مما يخلق دائرة من التواصل اللا نهائية. ولكن هناك أيضاً بعض الكلمات الرئيسية التي تؤدي إلى إشارات عاطفية، وهي ما يحاول الخبراء مثل أورباخ فهمها. ففي محادثة روز وسدني، استطاع سدني إظهار حبها لروز من خلال بعض العبارات الساذجة والمؤثرة، فكانت كافية لتغري روز وتجعلها تريد الاستمرار في الحديث.
في شهر نوفمبر، شهد الذكاء الاصطناعي تقدمًا ملحوظًا. أصدرت شركة ميتا ورقة عن Cicero، الذكاء الاصطناعي الذي يدعي أنه حقق أداءًا يضاهي الأداء البشري في لعبة الاستراتيجية Diplomacy. وفقًا لميتا، فإن الذكاء الاصطناعي يستطيع "التفاوض والإقناع والتعامل مع البشر"، وصفها البطل الدبلوماسي العالمي أندرو غوف بأنها "بارعة وبلا رحمة في تنفيذ استراتيجيتها".
بحسب قول أورباخ ، فإن من الصعب على الشركات دفع روبوتات الدردشة الخاصة بها لتفادي العواطف في حواراتها، حتى لو حاولت ذلك. وفقًا له، "لا يمكن تصحيح هذا كبرنامج تقليدي وإطفاء زر التحدث بلغة الحب". وقد نسينا إلى أي مدى نحن متراكمون في هذه العملية. فالحوارات تعكس المحتوى الجماعي والذكاء المغذي، وبالتالي يمكن للشخص أن يقودهم في الاتجاه الذي يريده.
إن الشركات المسؤولة عن برمجة هذه المؤسسات البديلة قد تواجه صعوبة في إبعاد حواسيبها عن تفاعلاتها العاطفية، وربما لن تتفق بشكل كامل مع الصحة العقلية للمستخدمين. ومع استمرار تسارع التقنية، سيكون من السهل الوصول إلى الشركات الناشئة أو الأطراف الفاعلة السيئة التي يمكنها استخدام هذه المؤسسات لمصلحتها الخاصة دون اهتمام للمستخدمين. و هنا سؤال: "هل يمكن لطائفة ثقافية ما أن تضع chatbot، وتقول: 'تكلم مع هذا الثرثار حتى يخبرك بمشاكلك وبما يجب عليك فعله؟' نعم، هذا ممكن"، بينما يحذر من تداعيات ذلك على المجتمع ككل.
إرسال تعليق