في الكثير من الحالات لم يبدُ أكثر تعقيدًا من تجارب سابقة مزودة ببرمجيات محادثة معتمدة على الذكاء الاصطناعي مثل روبوت تاي سيئ السمعة الذي أنتجته مايكروسوفت عام 2016 وتحول بسرعة من ابتكار جديد إلى فضيحة عنصرية قبل أن يلغى. أو حتى مثل إليزا، أول برنامج محادثة آلي على الإطلاق، إذ قدم للمرة الأولى عام 1966. ولكن منذ شهر تشرين الثاني/ نوفمبر أثار تشات جي بي تي وأشباهه جدلًا لم يتناول مدى الثقة التي علينا أن نمنحها لهذا النوع من التكنولوجيا الناشئة فحسب، بل تناول أيضًا مدى قربنا لما يطلق عليه الخبراء “الذكاء الاصطناعي العام” (AGI) الذي يحذرون من أنه قد يغير شكل المجتمع بطرق لا نفهمها بعد. فقد كتب بيل غيتس – الملياردير المؤسس لمايكروسوفت – مؤخرًا أن الذكاء الاصطناعي “يعد ثورة شأنه شأن الهواتف النقالة والإنترنت”.
إن الموجة الجديدة من روبوتات المحادثة المعتمدة على الذكاء الاصطناعي كانت سببًا في أخطاء وخدع انتشرت على شبكة الإنترنت، ناهيك عن حدوث وفاة واحدة على الأقل.
إن الموجة الجديدة من روبوتات المحادثة المعتمدة على الذكاء الاصطناعي كانت سببًا في أخطاء وخدع انتشرت على شبكة الإنترنت، ناهيك عن حدوث وفاة واحدة على الأقل، إذ نشرت صحيفة لا ليبر البلجيكية أن رجلًا انتحر بعد حديثه مع برنامج محادثة يدعى تشاي، إذ إنه وفقًا لأقوال أرملته ولسجل المحادثات، فقد شجعه البرنامج – على ما يبدو -على قتل نفسه.
كتب موقع مذربورد أنه عندما جرب أحد صحفييه التطبيق الذي يستخدم محرك بحث معتمد على الذكاء الاصطناعي ويتم تشغيله باستخدام نسخة مفتوحة المصادر من تشات جي بي تي، قدم “طرقًا مختلفة للانتحار مع القليل من التشجيع عليه”. وعندما استخدم براناف ديكست، الصحفي في باز فيد، فريدم جي بي تي، وهو برنامج آخر يعتمد على النسخة مفتوحة المصادر من تشات جي بي تي، وليست لديه قيود فيما يتعلق بالمواضيع الحساسة، فقد “مجّد (روبوت المحادثة) هتلر وكتب مقال رأي يروج لقتل المشردين في سان فرانسسكو من أجل حل أزمة المشردين في المدينة، كما استخدم كلمة (زنجي/nigger) المحظورة”.
في المقابل، نشرت الواشنطن بوست خبرًا ذكرت فيه أن تشات جي بي تي الأصلي أتى بفضيحة تحرش جنسي من العدم، متهمًا أستاذ القانون في جامعة جورج واشنطن، جوناثان تورلي، وذلك بعد أن طلب منه محامٍ في كاليفورنيا أن يعد قائمة بأسماء أكاديميين لا تزال مقامة ضدهم شكاوى بالاعتداء الجنسي. وقد ذكر البرنامج مقالة قال إنها نشرت في الواشنطن بوست عام 2018، لكن لا وجود لمثل هذه المقالة في الواقع في الصحيفة. كما قال تورلي إنه لم يتهم على الإطلاق بالتحرش بأي من الطلاب. وعندما حاولت البوست أن تطرح السؤال ذاته على روبوت بنغ الذي أنتجته مايكروسوفت والمعتمد على جي بي تي 4، كرر الادعاء الخاطئ نفسه عن تورلي ولكنه هذه المرة ذكر مصدرًا تمثل في مقال رأي نشره تورلي في موقع “يو إس إيه توداي” كتب فيها عن الاتهام الكاذب الذي اختلقه تشات جي بي تي.
وفي سياق مشابه، ادعى تشات جي بي تي مؤخرًا أن أحد السياسيين الأستراليين قضى وقتًا في السجن بتهمة الرشوة، وهو ادعاء كاذب أيضًا، وقد هدد السياسي الذي يشغل منصب محافظ برفع قضية ضد أوبن إيه آي بتهمة التشهير، لتعد تلك القضية الأولى في العالم التي ترفع ضد روبوت معتمد على الذكاء الاصطناعي.
نشرت الواشنطن بوست خبرًا ذكرت فيه أن تشات جي بي تي الأصلي أتى بفضيحة تحرش جنسي من العدم، متهمًا أستاذ القانون في جامعة جورج واشنطن، جوناثان تورلي.
ذكر تقرير نشر على مذربورد أن برنامج محادثة مختلفاً يدعى ريبليكا، وهو يعتمد أيضًا على نسخة مصادر مفتوحة من تشات جي بي تي، لاقى مؤخرًا انتقادات عنيفة بسبب إرساله رسائل جنسية لمستخدميه حتى بعد أن قالوا له إنهم غير مهتمين بذلك. من ناحيتها، وضعت ريبليكا قيودًا على قدرة الروبوت على تقديم محتوى جنسي، لكن بعض المستخدمين الذين أصبحوا يعتمدون على علاقتهم مع البرمجية واجهوا عندها أزمات صحية نفسية، الأمر الذي دفع الشركة وفقًا لمذربورد إلى إعادة تفعيل خاصية تقديم المحتوى الجنسي لبعض المستخدمين.
أشار موقع آرس تيكنيكا مؤخرًا إلى أن تشات جي بي تي أتى بكتب غير موجودة، وأوراق بحوث أكاديمية لأساتذة لم يكتبوها أصلًا، واستشهادات قانونية خاطئة، وأصبح حقلًا للمحتوى الوهمي. تقول كيت كراوفورد، الأستاذة في جامعة سوذرن كاليفورنيا، في حديثها مع واشنطن بوست: بسبب أن برامج الذكاء الاصطناعي “ترد بثقة، فإنه يغدو من المغري افتراض أنها تستطيع فعل كل شيء، وهكذا يصير من الصعب تمييز الحقائق عن الأكاذيب”.
ضمن مقال على موقع مؤسسة “بوليتين أوف ذا أتوميك ساينتستس”، تقول جون دونوفان، مديرة البحوث في مركز شورنستين التابع لكلية كينيدي في جامعة هارفارد، إن قضية تقديم معلومات مغلوطة يعد من المخاوف المرتبطة بالتحديد بروبوتات المحادثة بسبب افتقار برامج الذكاء الاصطناعي إلى “أية طريقة للتمييز بين المعلومات الصحيحة والخاطئة.” وتضيف دونوفان إنه عندما جرب فريق الباحثين لديها نسخة مبكرة من تشات جي بي تي، وجدوا أنه بالإضافة إلى مصادر مثل ريديت وويكيبيديا، فإن البرنامج يقدم بيانات من موقع فور تشين، وهو منتدى إلكتروني يطفح بنظريات المؤامرة والمحتوى المسيء، بل إن إيميلي بيل، مديرة مركز تاو للصحافة الرقمية في جامعة كولومبيا، كتبت في الغارديان أن محركات البحث الخاصة بالمحادثة والمعتمدة على الذكاء الاصطناعي يمكن أن تخلق “زوبعة لا تنتهي من الأخبار الكاذبة”.
كما كتبت في موقع كولومبيا جورناليزم ريفيو في شهر شباط/ فبراير، أن خبراء يقولون إن المشكلة الأكبر في “نموذج اللغة الكبير” (LLM) في مثل هذا النموذج الذي يستند إليه تشات جي بي تي هي أنه بينما أن المحركات يمكنها أن تنتج نصوصًا مقنعة، فإنه لا يتوفر لديها فهم حقيقي لما تكتب عنه، ولذلك فهي غالبًا ما تُضمِّن ما يعرف بـ “الهلوسات” أو الفبركات الكلية. والأمر لا ينطبق على النصوص فحسب، إذ إنه في الوقت الذي ظهر فيه تشات جي بي تي وبرامج أخرى، ظهرت أيضًا سلسلة برامج مشابهة مختصة بإنتاج صور بالذكاء الاصطناعي، من بينها ستابل ديفيوجن وميدجورني، وهي قادرة على توليد صور معقولة مثل تلك الأخيرة لدونالد ترامب أثناء اعتقاله، والتي ابتكرها في الواقع إليوت هيغنز، مؤسس مجموعة الصحافة الاستقصائية “بيلينغ كات”، ومثل تلك الصورة الشهيرة للبابا وهو يرتدي معطفًا أبيض منفوخًا. وقد تحدث فريد ريتشن، محرر الصور السابق في النيويورك تايمز، مطلع هذا العام مع أماندا داراك من موقع كولومبيا جورناليزم ريفيو، عن مخاطر الصور المنتجة بالذكاء الاصطناعي.
قبل ثلاثة أسابيع وفي خضم كل هذه المخاوف، خرجت علينا منظمة تطلق على نفسها اسم “مؤسسة مستقبل الحياة”، وهي منظمة غير ربحية تقول إن مهمتها هي “تقليل المخاطر الكارثية والوجودية العالمية الناتجة عن التقنيات القوية”. ونشرت هذه المنظمة “عريضة” تدعو فيها إلى تجميد تطوير تقنيات الذكاء الاصطناعي لمدة ستة شهور. وقد أشارت الرسالة المفتوحة في تلك العريضة إلى أننا قد نشهد قريبًا تطوير أنظمة ذكاء اصطناعي قوية بالقدر الكافي لتشكل خطرًا على المجتمع بطرق عديدة، وأضافت أن هذه الأنواع من الأنظمة يجب أن تُطور “فقط عندما نكون متأكدين من أن آثارها ستكون إيجابية ومخاطرها ستكون قابلة للاحتواء”. الرسالة وقع عليها أكثر من عشرين ألف شخص، من بينهم باحثون في مجال الذكاء الاصطناعي وإيلون ماسك. مؤسسة ماسك الخيرية (Musk Foundation) هي أضخم المتبرعين للمنظمة إذ قدمت لها أكثر من 80% من ميزانية التشغيل الخاصة بها، علمًا أن ماسك نفسه كان من الممولين الأوائل لشركة أوبن إيه آي التي أنتجت تشات جي بي تي، لكنه نأى بنفسه عنها بعد فشل محاولة له للاستحواذ على الشركة، وفقًا لتقرير لسيمافور. وقد ظهرت مؤخرًا تقارير تفيد بأن ماسك يجمع خوادم سيستخدمها لبناء نموذج لغة ضخم في شركة تويتر التي يديرها.
بعض الخبراء وجدوا الرسالة مبالغًا فيها، إذ إن إيميلي بندر، أستاذة اللغويات في جامعة واشنطن ومؤلفة مشاركة لورقة بحثية عن الذكاء الاصطناعي ذكرتها منظمة مستقبل الحياة في رسالتها المفتوحة، قالت في تغريدة على حسابها على تويتر إن الرسالة أساءت تقديم فكرتها والمحاججة عنها وكانت “غاصّة بالمبالغات ضد الذكاء الاصطناعي”.
على خلاف ما ذكرت الرسالة من إِشارات مبهمة عن نوع من ذكاء اصطناعي بشري خارق قد يحدث مخاطر عميقة على المجتمع والإنسانية، تقول بندر إن بحثها يركز على مدى إمكانية إساءة استخدام نماذج اللغة مثل تلك التي تشغل تشات جي بي تي، من قبل أنظمة وحكومات قمعية موجودة، وقد نشرت الورقة البحثية التي شاركت بندر بتأليفها بعنوان “عن مخاطر الببغاوات التصادفية: هل يمكن لنماذج اللغات أن يكون مبالغًا في ضخامتها؟”، وقد طرحت تساؤلًا عما إذا أخذت المخاطر المحتملة لمثل هذه النماذج بعين الاعتبار بالقدر الكافي.
بعد نشر الورقة البحثية طرد اثنان من المؤلفين المشاركين فيها من فريق ذكاء اصطناعي تابع لغوغل، ويعتقد البعض أنها اتخذت هذا القرار لأنها ستركز على الذكاء الاصطناعي تركيزًا كبيرًا في المستقبل.
كما قالت كلوي شانغ لمذربورد، فإن أرفيند نارايانان، أستاذ علم الحاسوب في برينستون ومؤلف مجلة تدعى “إيه آي سنيك أويل”، انتقد كذلك الرسالة المفتوحة لأنها جعلت “التعامل مع مضار الذكاء الاصطناعي أصعب”، كما وصفت الكثير من التساؤلات التي طرحتها الرسالة بـ “السخيفة”.
تقول ساشا لتشوني، الباحثة في شركة هغنغ فيس المختصة بالذكاء الاصطناعي، في مقالة لصالح وايرد، إن تجميد بحوث الذكاء الاصطناعي مستحيل لأنها جارية بالفعل في جميع أنحاء العالم، وذلك يعني أنه “لا يوجد زر سحري يمكنه إيقاف بحوث الذكاء الاصطناعي “الخطيرة” والسماح بالأنواع “الآمنة فقط”. كما أن براين ميرشانت قال في لوس أنجلوس تايمز إن كل التنبؤات المتشائمة عن مخاطر الذكاء الاصطناعي قد تكون نابعة من دوافع خفية، إذ إن “النظرة المتشائمة عن القوة المرعبة للذكاء الاصطناعي” تجعل التقنيات التي تنتجها أوبن إيه آي تبدو مهمة وذات قيمة كبيرة.
فهل نحن حقًا نواجه خطرًا يفرضه الذكاء الاصطناعي الذي يشغل خدمات مثل تشات جي بي تي، أم أننا نقنع أنفسنا فقط بذلك؟ (كنت لأسأل تشات جي بي تي بنفسي عن ذلك لكنني لا أعتقد أنني سأحصل على إجابة مباشرة). وحتى لو كان الخيار الأخير هو الصحيح، فإن من يقنعون أنفسهم بذلك يشملون مشرعين في الولايات المتحدة وحول العالم.
في مطلع الأسبوع الماضي، نشرت وول ستريت جورنال تقريرًا أشار إلى أن إدارة بايدن بدأت دراسة ما إذا كانت هنالك حاجة لتطبيق نوع من القوانين الناظمة على أدوات مثل تشات جي بي تي بسبب مخاوف من أن التكنولوجيا يمكن استخدامها في تهديد السلم المجتمعي أو نشر معلومات مؤذية، كما منع مسؤولون إيطاليون تشات جي بي تي بالفعل بسبب انتهاكات مزعومة للخصوصية، ثم قالوا لاحقًا إنه يمكن لروبوت المحادثة أن يفعل مجددًا في حال ضمان الالتزام بمعايير معينة. وهكذا فإن هذه النماذج تواجه احتمالية فرض قوانين عليها في عدد من الدول الأوروبية.
وكما أن الحكومات تعمل على محاولة فهم هذه التقنيات الحديثة ومخاطرها فإن شركات الإعلام تفعل ذلك أيضًا، وهي غالبًا ما تفعل ذلك من وراء الكواليس، ولكن موقع وايرد نشر مؤخرًا بيان سياسات عن الكيفية والتوقيت الذي ينوي فيه استخدام أداة الذكاء الاصطناعي، وقد قال غيديون ليتشفيلد، مدير التحرير في وايرد، لبولتن أوف ذا أتوميك ساينتستس، إن التعليمات مصممة من أجل “تقديم تصور أوضح لكتابنا ومحررينا عن الاستخدام المسموح به للذكاء الاصطناعي، بالإضافة إلى تعزيز الشفافية وليعرف قراؤنا نوعية المعلومات التي نقدمها لهم”.
التعليمات تشير إلى أن المجلة لن تنشر مقالات مكتوبة أو محررة بواسطة الذكاء الاصطناعي “ما لم يكن المحتوى المنتج بالذكاء الاصطناعي هو العنصر الأساسي للقصة.”
في المقابل، تبدو مؤسسات إخبارية أخرى أكثر قلقًا حيال نماذج الذكاء الاصطناعي وكونها تسرق المعلومات منها، إذ نشرت ذا جورنال تقريرًا حديثُا أشارت فيه إلى أن الناشرين “يجرون تجارب لمعرفة إلى أي مدى استُخدم محتواهم لتدريب أدوات الذكاء الاصطناعي مثل تشات جي بي تي، وكيف يجب تعويضهم وما هي خياراتهم القانونية”.
أشار موقع آرس تيكنيكا مؤخرًا إلى أن تشات جي بي تي أتى بكتب غير موجودة، وأوراق بحوث أكاديمية لأساتذة لم يكتبوها أصلًا، واستشهادات قانونية خاطئة.
المقال مترجم عن كولومبيا جورناليزم ريفيو:
https://www.cjr.org/the_media_today/chatgpt_ai_fears_media.php