
تلقى أستاذ القانون جوناثان تورلي رسالة إلكترونية مزعجة. وكجزء من دراسة بحثية، طلب محام زميل في كاليفورنيا من برنامج الدردشة الآلي “تشات جي بي تي” إنشاء لائحة بأساتذة القانون الذين تحرشوا جنسياً بشخص ما. وكان اسم تورلي مدرجاً في اللائحة.
وقال “تشات بوت” الذي أنشأته شركة “أوبن إي آي”، إن تورلي أدلى بتعليقات تتضمن إيحاءات جنسية وحاول لمس طالب أثناء رحلة صفية إلى ألاسكا، نقلاً عن مقالة نُشرت في آذار (مارس) 2018 في صحيفة “واشنطن بوست”. إلا أن هذه المقالة غير موجودة، ولم تُنظَم رحلة إلى ألاسكا. وقال تورلي إنه لم يُتهم قط بمضايقة أي طالب.
وفي بعض الأحيان، طلب تورلي تصحيح بعد المعلومات التي كانت تنشر عنه. لكن هذه المرة، لا صحافي أو محرر يمكنه الاتصال به ولا طريقة لتصحيح المعلومات.
والواقع أن تجربة تورلي هي دراسة حالة في عيوب الموجة الأخيرة من الروبوتات التي جذبت الاهتمام من خلال قدرتها على كتابة كود الكمبيوتر، وصياغة القصائد وإجراء محادثات. لكن هذا الإبداع قد يكون يشمل الكثير من الأخطاء، ويمكن للنماذج أن تحرف حقائق أساسية، حتى أنها تختلق المصادر الأولية لدعم ادعاءاتها.
وقالت كيت كروفورد، الأستاذة في جامعة جنوب كاليفورنيا وكبيرة الباحثين الرئيسيين: “نظراً إلى أن هذه الأنظمة تستجيب بثقة كبيرة، فمن المغري جداً افتراض أنها تستطيع فعل كل المهام التي نحتاج إليها، ومن الصعب للغاية معرفة الفرق بين الحقائق والأكاذيب”.
وقال المتحدث باسم “أوبن أي آي” نيكو فيليكس في بيان: “عندما يقوم المستخدمون بالتسجيل في “تشات جي بي تي”، نسعى جاهدين لنكون شفافين بقدر الإمكان بأنه قد لا ينتج منه دائماً إجابات دقيقة. وتحسين دقة الحقائق هو تحد كبير بالنسبة إلينا، ونحرز تقدماً في هذا الاتجاه”.
وتعمل روبوتات الدردشة المدعومة بالذكاء الاصطناعي اليوم من خلال الاعتماد على مجموعات كبيرة من المحتوى عبر الإنترنت، والتي غالباً ما يتم اقتطاعها من مصادر مثل “ويكيبيديا” و”ريديت”.
ويمكن أن تقدم هذه الروبوتات نتائج مبهرة عندما تشرح مفهوماً فيزيائياً متقدماً أو تنشئ خطة درس جذابة لتدريس علم الفلك لطلاب الصف الخامس. لكن لمجرد أنها جيدة في التنبؤ بالكلمات التي من المحتمل أن تظهر معاً لا يعني أن الجمل الناتجة منها صحيحة.
وذكرت وكالة “رويترز” أن بريان هود، رئيس بلدية هيبورن شاير الإقليمي في أستراليا، يهدد برفع أول دعوى تشهير ضد شركة “أوبن آي إي”، إن لم تصحح مزاعم كاذبة بأنه قضى فترة في السجن بتهمة الرشوة.
قالت كروفورد إن صحافياً قد اتصل بها مؤخراً استخدم البرنامج للبحث عن مصادر لقصة ما. وطرح الروبوت اسم كروفورد، مقدماً أمثلة على عملها، بما في ذلك عنوان المقالة وتاريخ النشر والاقتباسات. وكل ذلك بدا معقولاً، لكنه غير صحيح.
لكن يبقى من غير الواضح من المسؤول عندما ينشر الذكاء الاصطناعي معلومات غير دقيقة.
وقال جيف كوسيف، الأستاذ في الأكاديمية البحرية: “من منظور قانوني، لا نعرف كيف يمكن للقضاة أن يحكموا عندما يحاول شخص ما مقاضاة صانعي روبوت محادثة للذكاء الاصطناعي… لم يكن لدينا حالة مماثلة من قبل”.
وأقر الكونغرس قانوناً يُعرف باسم “القسم 230″، يحمي الخدمات عبر الإنترنت من المسؤولية عن المحتوى الذي تقدمه والذي أُنشئ بواسطة أطراف ثالثة، مثل المعلقين عبر موقع ويب أو مستخدمي تطبيق اجتماعي. لكن الخبراء يقولون إنه من غير الواضح ما إذا كانت شركات التكنولوجيا ستكون قادرة على استخدام هذا الدرع إذا تمت مقاضاتهم بسبب المحتوى الذي تنتجه برامج الدردشة الآلية الخاصة بهم.
ولا يكفي أن تظهر مزاعم التشهير تقديم معلومات خاطئة، بل يجب إثبات أن النشر أدى إلى أضرار حقيقية، مثل الإضرار بسمعة المعنيين.