Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
اخبار الشرق الأوسط

هل يمكن تفادي انتقال “عدوى الأحكام المسبقة” من البشر إلى الذكاء الاصطناعيّ؟

وتبدو الحلول التكنولوجيّة لهذا الخطر محدودة، إذ أنّ إعادة التدريب الكاملة لبرامج الذكاء الاصطناعيّ التوليديّ التأسيسيّة، وتلقينها بيانات غير متحيّزة ستستغرق وقتًا طويلًا، وترتّب تكلفة باهظة، ولا توجد أصلًا مجموعة محدّدة من المعلومات “المحايدة”…

يحدث الذكاء الاصطناعيّ تحوّلًا تدريجيًّا في حياة الناس اليوميّة، إذ يسهّل المهامّ البسيطة أو المعقّدة، لكنّ الأحكام البشريّة المسبقة تكثر في الكمّ الكبير من المعلومات الّتي يقوم عليها، ممّا ينذر بانتقال عدوى التمييز إلى العقل الآليّ، فهل يمكن جعله محايدًا؟

في رأي الخبراء فإنّ هذا الأمر غير ممكن في الوقت الراهن، ملخّصين وجهة نظرهم بأنّ الخميرة لا يمكن أن تزال من قالب الحلوى بعد خبزه.

وهذا الاستنتاج يصحّ خصوصًا على الذكاء الاصطناعيّ التوليديّ، إذ أنّ برامجه تنهل معلوماتها من الإنترنت، فتتغذّى من المواقع الإلكترونيّة وشبكات التواصل الاجتماعيّ ومقاطع الفيديو، وسوى ذلك، لتنتج في المقابل كلّ أنواع المحتوى، على الطلب.

إلّا أنّ الانطباع الّذي تتركه قدرات الذكاء الاصطناعيّ التوليديّ قد يكون خادعًا، إذ أنّ برامجه على غرار “تشات جي بي تي” تبقّى مجرّد آلات قائمة على منطق الرياضيّات، تتنبّأ بالكلمات أو وحدات البكسل الأكثر احتمالًا واحدة تلو الأخرى.

وقال مدير المنتجات في شركة “المبيك” الناشئة للذكاء الاصطناعيّ جايدن زيغلر إنّ النماذج اللغويّة لبرامج الذكاء الاصطناعيّ التوليديّ “لا تدرك ما تعرفه، أو لماذا تعرفه”. وشرح أنّها “لا تستطيع تمييز ما هو متحيّز أم لا، وما يتّسم بالشمول أم لا، لذلك لا يمكنها فعل أيّ شيء حيال ذلك”.

وفي غياب الإعدادات الإضافيّة، إذا طلب المستخدم صورة لمدير شركة، يحصل على صور لرجال بيض أربعينيّين يرتدون بدلات.

ولاحظ جوشوا ويفر الّذي يدير منظّمات غير حكوميّة في تكساس تعنى بحقوق الإنسان في القضاء أنّ “هذه النماذج بمثابة مرايا لتاريخ البشر وثقافتهم”. وأكّد أنّها “لن تتوصّل إلى نتائج تختلف جوهريًّا عن المعلومات المخزّنة”.

ورأى هذا المحامي أنّ الخطر يتمثّل في انتقال أحكام البشر المسبقة إلى برامج الذكاء الاصطناعيّ “الّذي يعزّز بدوره أفكارهم المسبقة”، واصفًا هذا الوضع بـ”حلقة جهنّميّة”.

وتبدو الحلول التكنولوجيّة لهذا الخطر محدودة، إذ أنّ إعادة التدريب الكاملة لبرامج الذكاء الاصطناعيّ التوليديّ التأسيسيّة، وتلقينها بيانات غير متحيّزة ستستغرق وقتًا طويلًا، وترتّب تكلفة باهظة، ولا توجد أصلًا مجموعة محدّدة من المعلومات “المحايدة”.

من هذا المنطلق، تحاول الشركات “مواءمة” نماذج الذكاء الاصطناعيّ مع القيم المنشودة، من خلال فرض القواعد عليها. وبالتّالي، توقّفت معظم برامج الدردشة الآليّة عن التعبير عن المشاعر الّتي لا تتمتّع بها، وأصبحت تنتج نتائج أكثر تنوّعًا.

وقال المؤسّس المشارك لشركة “ألمبيك” توماس بويغ “نضع لهذه النماذج مرشّحات اجتماعيّة” فتصبح أشبه “بالأشخاص ذوي الآراء الحادّة الّذين تعلّموا ألّا يجاهروا بما يفكّرون فيه”.

ولكن تبيّن في شباط/فبراير الفائت أنّ ثغرات ونقاط ضعف تشوب طريقة “الفلاتر”، عندما استجاب برنامج الذكاء الاصطناعيّ التوليديّ “جيميناي” (من “غوغل”) طلبات لإدراج رجل أسود وامرأة آسيويّة ضمن صور عن جنود ألمان من الحرب العالميّة الثانية.

وتحت ضغط المنافسة، تستعجل شركات التكنولوجيا العملاقة ابتكار أدوات مساعدة قائمة على الذكاء الاصطناعيّ وتوفيرها للمستخدمين بسرعة كبيرة.

ولاحظت الباحثة في منصّة الذكاء الاصطناعيّ التعاونيّة “هاغينغ فايس” ساشا لوتشيوني إنّ هذه الشركات ترغب كثيرًا في أن تكون قادرة على محو ما تعلّمته النماذج اللغويّة آليًّا. لكنّها اعتبرت أنّ “السعي إلى إيجاد حلّ تكنولوجيّ هو خيار في الاتّجاه الخاطئ”.

وشدّد جوشوا ويفرّ على أنّ الأكثر إلحاحًا هو تثقيف البشر في شأن هذه الأدوات الجديدة، وهي آلات توحي أنّ لديها وعيًا. وتمنّى لو يتوافر “القليل من الفطرة السليمة”.

ونصح بالحرص على التنوّع في فرق المهندسين المسؤولين عن هذه البرامج، إذ غالبًا ما يكون أعضاؤها شديدي التجانس، من الشباب المنتمين إلى خلفيّات متشابهة، وليس بينهم الكثير من وجهات النظر المختلفة”.

ومع أنّ “تشات جي بي تي” أظهر خلال أحدث عرض توضيحيّ للشركة الّتي صمّمته “أوبن إيه آي” قدرة على “قراءة” مشاعر مستخدميه على وجوههم، يبقى السؤال هل سيكون في وسعه تفسير تعابير وجوه الأشخاص المنتمين إلى كلّ الثقافات بشكل صحيح؟

إلّا أنّ الخبراء ذكروا بأنّ الذكاء الاصطناعيّ التوليديّ لا يزال في مراحله الأولى. وتستكشف شركات ناشئة عدّة طرق مختلفة.

فشركة “بينيكون” مثلًا تخصّصت في “التوليد المعزّز بالاسترداد” أو ما يعرف اختصارًا بـ”راغ” RAG، وهو عبارة عن إنشاء قواعد بيانات موثوق بها ومضبوطة بصرامة، تغرف منها أداة المساعدة القائمة على الذكاء الاصطناعيّ العناصر.

وأعطى كبير مسؤولي التكنولوجيا في الشركة رام سريهارشا كمثال تطبيقًا في إحدى شركات المحاماة: “أداة المساعدة القائمة على الذكاء الاصطناعيّ – نموذج اللغة – خبيرة في اللغة الإنكليزيّة، وليس في القانون. فلنتخيّل لو كان يستطيع الوصول إلى محام يعرف كلّ الملفّات. سيتمكّن في هذه الحالة من الإجابة عن أيّ سؤال قانونيّ!”.

على المدى البعيد، يأمل المهندسون في أن يتيحوا للآلات القدرة على أن تقدّر عواقب سلوكها.

وقال جايدن زيغلر “في الوقت الراهن، هي مجرّد صناديق سوداء لا يمكن فهمها (…) ولكن ربّما يمكننا في المستقبل تصميم مستوى أعلى يستطيع فيه النموذج فرز المعلومات الجيّدة من تلك السيّئة، مع نظام مكافآت”.

وقال توماس بويغ مازحًا “باختصار، ستتمكّن نماذج الذكاء الاصطناعيّ من الخضوع للعلاج”.


المصدر: عرب 48

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *