Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
اخبار الشرق الأوسط

الذكاء الاصطناعي ومخاطره: هل هي “مبالغة”؟

أطلق النجاح الهائل الّذي أحرزه برنامج “تشات جي بي تي” القادر على إنتاج أيّ نوع من النصوص بناء على طلب مستخدميه، سباقًا بين شركات التكنولوجيا العملاقة إلى هذا الذكاء الاصطناعيّ “التوليديّ”

قال اختصاصيّ الذكاء الاصطناعيّ غاري ماركوس، في لقاء أجرته وكالة فرانس برس، إنّ مخاطر انقراض البشريّة من الذكاء الاصطناعيّ “مبالغ فيها”.

وأوضح الأستاذ الفخريّ في جامعة نيويورك الّذي قدّم إلى كاليفورنيا لحضور مؤتمر “شخصيًّا، وفي الوقت الحاضر، لست قلقًا جدًّا بهذا الشأن، لأنّ السيناريوهات ليست في غاية الواقعيّة”. وتابع “ما يقلقني هو أن نبني أنظمة ذكاء اصطناعيّ لا نحكم السيطرة عليها”.

وفي آذار/مارس، كان من موقعي الرسالة الّتي نشرها مئات الخبراء للمطالبة بتعليق تطوير أنظمة ذكاء اصطناعيّ فائقة القوّة مثل روبوت الدردشة “تشات جي بي تي” الّذي أطلقته شركة “أوبن إيه آي” الناشئة لمدّة ستّة أشهر للتثبّت من أنّ البرامج المطروحة حاليًّا للاستخدام “موثوقة وآمنة وشفّافة ووفيّة … وموائمة” للقيم البشريّة.

ابتكر غاري ماركوس برنامجه الأوّل للذكاء الاصطناعيّ في المدرسة الثانويّة، وكان برنامجًا لترجمة نصوص من اللاتينيّة إلى الإنكليزيّة. وبعد سنوات من دراسة علم النفس للأطفال، أنشأ شركة متخصّصة في “تعلّم الآلة” استحوذت عليها “أوبر” لاحقًا.

لكنّه لم يوقع الإعلان المقتضب الّذي أصدرته مجموعة من كبار رجال الأعمال والخبراء هذا الأسبوع وكان له وقع شديد.

ودعا موقعو الإعلان ومن أبرزهم مبتكر “تشات جي بي تي” نفسه سام ألتمان، والمهندس الكبير السابق لدى “غوغل” جيفري هينتون الّذي يعتبر من الآباء المؤسّسين للذكاء الاصطناعيّ، ورئيس شركة “ديب مايند” للأبحاث في مجال الذكاء الاصطناعيّ التابعة لغوغل ديميس هاسابيس، والمدير الفنّيّ لمايكروسوف كيفن سكوت، إلى التصدّي لـ”مخاطر انقراض” البشريّة “المرتبطة بالذكاء الاصطناعيّ”.

وأطلق النجاح الهائل الّذي أحرزه برنامج “تشات جي بي تي” القادر على إنتاج أيّ نوع من النصوص بناء على طلب مستخدميه، سباقًا بين شركات التكنولوجيا العملاقة إلى هذا الذكاء الاصطناعيّ “التوليديّ”، غير أنّه أثار في المقابل الكثير من التحذيرات والدعوات إلى وضع ضوابط لهذا المجال.

وصدرت هذه التحذيرات حتّى عن مطوّري هذه الأنظمة المعلوماتيّة الّذين يعملون من أجل التوصّل إلى ذكاء اصطناعيّ “عام” يتميّز بقدرات معرفيّة شبيهة بقدرات البشر.

وقال غاري ماركوس “إن كنتم مقتنعين فعليًّا بأنّ هناك خطر وجودي، فلماذا تعملون على ذلك بالأساس؟ هذا سؤال منطقيّ”. ورأى أنّ “انقراض الجنس البشريّ… مسألة في غاية التعقيد في الواقع، يمكننا تصوّر كلّ أنواع الآفات، لكن ثمّة من سينجو حتمًا”. وشدّد في المقابل على أنّ هناك سيناريوهات ذات مصداقيّة يمكن في سياقها أن يتسبّب الذكاء الاصطناعيّ “بأضرار هائلة”.

وتابع “قد ينجح البعض على سبيل المثال في التلاعب بالأسواق. وقد نتّهم الروس بتحمّل المسؤوليّة ونهاجمهم، في حين أن لا ضلوع لهم إطلاقًا، وقد ننجر إلى حرب عرضيّة تهدّد بأن تتحوّل إلى حرب نوويّة”. وعلى المدى القريب، يعرب غاري ماركوس عن مخاوف على الديموقراطيّة.

فبرمجيّات الذكاء الاصطناعيّ التوليديّ قادرة بصورة متزايدة على إنتاج صور زائفة وقريبًا فيديوهات واقعيّة، بكلفة زهيدة. وفي هذا السياق، فإنّ “الانتخابات ستحسم للّذين يبرعون أكثر من سواهم في نشر التضليل الإعلاميّ، وهؤلاء قد يعدّلون القوانين بعد فوزهم… ويفرضون نظامًا سلطويًّا”.

وشدّد على أنّ “الديموقراطيّة تقوم على امتلاك معلومات منطقيّة واتّخاذ قرارات صائبة. وإن لم يعد أحد يميّز بين ما هو صحيح وما هو غير صحيح، عندها ينتهي الأمر”.

لكنّ هذا لا يعني برأي الخبير الّذي صدر له كتاب بعنوان “إعادة إطلاق الذكاء الاصطناعيّ” Rebooting AI أنّ هذه التكنولوجيا لا تحمل وعودًا.

وقال “ثمّة فرصة بأن نستخدم ذات يوم نظام ذكاء اصطناعيّ لم نبتكره بعد، يساعدنا على إحراز تقدّم في العلم، في الطبّ، في رعاية المسنّين… لكنّنا في الوقت الحاضر غير جاهزين. نحن بحاجة إلى تنظيمات وإلى جعل البرامج أكثر موثوقيّة”.

ولدى مثوله أمام لجنة في الكونغرس الأميركيّ في أيّار/مايو، دعا إلى إنشاء وكالة وطنيّة أو دوليّة يعهد إليها بحوكمة الذكاء الاصطناعيّ.

وهو مشروع يحظى أيضًا بتأييد سام ألتمان العائد من جولة أوروبّيّة حضّ خلالها القادة السياسيّين على البحث عن “توازن عادل” بين الإنتاج والابتكار.

لكنّ غاري ماركوس حذّر من ترك السلطة بهذا الشأن بأيدي الشركات وقال “ذكرتنا الأشهر الأخيرة إلى أيّ حدّ هي الّتي تتّخذ القرارات الهامّة بدون أن تأخذ بالضرورة… بالآثار الجانبيّة”.


المصدر: عرب 48

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *