NewsFrontPage

مدونة التقنيات الحديثة وعالم الانترنت و المعلوماتية و الإعلام الجديد و التحول الرقمي؛ تنقل آخرالمستجدات التقنية وتقود القارئ في دهاليز شبكة الإنترنت وكيفية فهم واستخدام مختلف أدواتها مع نايلة الصليبي

NewsFrontPage

عراب الذكاء الاصطناعي يندم على تكريس حياته له ويحذر البشرية من مخاطر تطوره!

جيفري هينتون، أحد رواد بحوث الذكاء الاصطناعي الذي يلقب بـ “عراب الذكاء الاصطناعي”، استقال من منصبه في شركة غوغل كنائب الرئيس والزميل الهندسي في غوغل. معلنا خلال مقابلة مع صحيفة نيويورك تايمز وفي تصريح آخر مع هيئة الإذاعة البريطانية أنه “يريد استعادة حريته في التعبير للتحذير من خطر الإصدارات المستقبلية من تكنولوجيا الذكاء الاصطناعي على البشرية”؛ لدرجة أنه “يندم على تكريس حياته كلها لذلك” و لم يوجه أي انتقاد لشركة غوغل معتبرا أنها تتعامل مع هذه التقنية “بمسؤولية”.

استقالة وتحذير من الذكاء الاصطناعي

 جيفري هينتون في الخامسة والسبعين من العمر، ولد في لندن، وبصفته عالما في علم النفس المعرفي، كان عمل هينتون في الذكاء الاصطناعي يهدف إلى تقليد الذكاء البشري، ليس فقط لبناء تكنولوجيا الذكاء الاصطناعي بل لتوضيح طريقة عمل أدمغتنا.  هو من رواد علماء الكمبيوتر الذين عملوا على الشبكات العصبية الاصطناعية  تعمل بتقنية تعرف بالـ backpropagation“، وهي تقنية تحاول تقليد كيفية عمل الدماغ الذي تستند إليها العديد من أنظمة الذكاء الاصطناعي الحالية، و ذلك من خلال بحوث إلى جانب يوشوا بينجيو و يان لوكون  الذين حصلوا عام 2019 على جائزة تورينج، التي تعتبر معادلة لجائزة نوبل في علوم الكمبيوتر، لأبحاثهم حول الذكاء الاصطناعي و “التعلم العميق”.

لماذا يشعر جيفري هينتون بالقلق الشديد من خطر الذكاء الاصطناعي العام  و لماذا استقال من غوغل؟

حسب جيفري هينتون إن الذي دفعه لهذا التحذير هوChatGPT، جاءت  استقالة هينتون في أعقاب سلسلة عمليات إطلاق الذكاء الاصطناعي التوليدي والسباق بين شركات التكنولوجيا العملاقة على إطلاق نماذجها من الذكاء الاصطناعي التوليدي باللغة الطبيعية وغيرها من التقنيات.

فقد أعرب هينتون عن مخاوفه من أن السباق بين مايكروسوفت وغوغل وغيرها من الشركات، من شأنه أن يدفع تطوير الذكاء الاصطناعي إلى الأمام دون وجود حواجز وقواعد متوافقة. كاشفا عن وجود مخاوف بشأن التطور السريع للذكاء الاصطناعي، الذي قد يؤدي إلى إغراق المجال العام بالمعلومات المضللة وحلول  الذكاء الاصطناعي في وظائف بشرية بأعداد أكثر مما كان متوقعا.

برأيه ستتمكن قريبا نماذج الذكاء الاصطناعي التوليدي للدردشة باللغة الطبيعية من تجاوز “مستوى المعلومات التي يحتفظ بها الدماغ البشري شارحا أن “. النماذج اللغوية الكبيرة، مثل GPT-4، هي جميعها أدمغة اصطناعية مشتركة تتعلم بشكل منفصل ومن الممكن أن تتمكن قريبا من مشاركة معرفتها.  كما لو أن هنالك عشرة الآلاف شخص، وفي كل مرة يتعلم فيها شخص ما شيئا، سيتعلمه الجميع تِلْقائيًا”.

يقول جيفري هينتون:” على المدى القصير سيأتي الذكاء الاصطناعي بالعديد من المزايا الإيجابية. ولكن على المدى الطويل، “ستكون المخاطر هائلة”.  

حذر هينتون من التهديدات طويلة المدى التي تشكلها أنظمة الذكاء الاصطناعي على البشر إذا تم منح التكنولوجيا قدرا من الاستقلالية أكثر مما ينبغي.

عندما سئل علنا عما إذا كان يتأسف على عمله في حياته، نظرا لأنه قد يسهم في الأضرار التي لا تعد ولا تحصى التي أوضحها، قال هينتون “إنه كان يفكر في الأمر”.

مضيفا “لم تكن هذه المرحلة من الذكاء الاصطناعي متوقعة. حتى وقت قريب جدا كنت أعتقد أن هذه الأزمة الوجودية كانت بعيدة. لذلك أنا لست نادما حقاً على ما أفعله”.

 فقد كان يعتقد دائما أن هذا “الخطر الوجودي” بعيد، لكنه تراجع عن هذا الاعتقاد. محددا أن وراء ذلك، هناك حلم – أو كابوس – لما يسمى الذكاء الاصطناعي العام Artificial General Intelligence  ،ما يخشاه الباحث بشكل خاص هو الاستخدامات “السيئة” للذكاء الاصطناعي  من الروبوتات القاتلة و الأسلحة و أيضا انتشار المعلومات المضللة. مشيرا على سبيل المثال إلى سيناريو مرعب كأن يكون في أيدي فلاديمير بوتين artificial general intelligence ذكاء اصطناعي عام الذي يمكن أن يمنحه قوة كبيرة الحجم لتنفيذ جميع أنواع السيناريوهات المرعبة.

كثيرون شبهوا ندم جيفري هينتون بندم روبرت أوبنهايمر، والد القنبلة الذرية، الذي استقال وأعرب عن ندمه ورعبه بعد هيروشيما وناغازاكي.

أليس هنالك فسحة أمل من خلال تطور الذكاء الاصطناعي؟

كل هذا يعيد إحياء المخاوف التي أثارتها العريضة الشهيرة من منظمة future of life الممولة من قبل إيلون ماسك التي تدعو إلى حظر مؤقت لتطوير الذكاء الاصطناعي  وقعها عدد من العلماء والشخصيات بالإضافة لإيلون ماسك ويوشوا بينجيو وهو موظف في تلك المنظمة.

المعروف عن إيلون ماسك أنه متأثر بكتاب Nick Bostrom الشهير Superintelligence.paths. Dangers.Strategies.لكن الخبراء وعلماء الذكاء الاصطناعي منقسمون حيال هذه الصورة القاتمة، على سبيل المثال يان لوكون العالم الفرنسي الزميل والصديق لهينتون الذي حازعلى جائزة تورينج مع هينتون و بينجيو، هو رئيس مختبر ميتا للذكاء الاصطناعي الذي يؤكد:” أننا نشعر بالذعر من لا شيء وأن الذكاء الاصطناعي سيجلب السعادة والازدهار”. معتبرا  ” أن اليوم أفضل نموذج ذكاء اصطناعي يبقى محدودا وأقل ذكاءً من قطة، التي يحتوي دماغها على 760 مليون خلية عصبية و10 تريليونات من نقاط الاشتباك العصبي. ففي في كتابه “عندما تتعلم الآلة” كتب يان لوكون، “البشري غير قادر حاليا على تصميم وبناء آلات تقترب من قوة الدماغ البشري، 86 مليار خلية عصبية. ليس للآلات حس عام، ولا حس بالاستنتاج، ولا عواطف، ولا شيء مما يصنع الذكاء البشري.

تحذيرات يعتبرها البعض متأخرة

بالإضافة لكل هذا سؤال أخر يطرح، بالرغم من مناقبية جيفري هينتون العالية، زملاء سابقون في غوغل يقولون أن جيفري هينتون كان على علم  بالمشكلات الأخلاقية المتعلقة بالذكاء الاصطناعي خاصة منذ عام 2020، عندما تم طرد تمنيت غيبرو- Timnit Gebru – من غوغل  بعد نشرها دراسة علمية حول تحيزات أنظمة الذكاء الاصطناعي و رفضت حينها اجتراء الدراسة بطلب من غوغل، حينها التزم هينتون الصمت.

فقد ناقشت هذه الدراسة التكاليف البيئية، والتكاليف المالية، و التنميط، والتشهير، وزيادة الأيديولوجية المتطرفة والاعتقالات غير المشروعة التي يمكن أن تحدثها النماذج اللغوية الكبيرة (LLMs). Large language model

بدلاً من ذلك، استخدم هينتون الأضواء للتقليل من شأن صوت Gebru. في لقاء مع جيك تابر على قناة “سي إن إن”، رفض سؤالًا حول ما إذا كان يجب أن يقف إلى جانب Gebru، قائلاً إن أفكارها “ليست جدية من الناحية الوجودية مثل فكرة أن تصبح هذه الأشياء أكثر ذكاءً منا وتتخذ زيادة.”

ردت  Meredith Whittaker  في تعليق على تصريحات هينتون على قناة” سي إن إن” :” إنه لأمر مذهل أن يستطيع أي شخص أن يقول إن أضرار الذكاء الاصطناعي التي تحدث الآن – التي يشعر بها تاريخياً، الأفراد من الأقليات بشكل حاد مثل السود، والنساء، والأشخاص ذوي الإعاقة، والعمال غير المستقرين – ليست وجودية”.

 Meredith Whittaker رئيسة مؤسسة سيغنال وباحثة في الذكاء الاصطناعي و التي طردت أيضا من غوغل عام 2019. بتهمة القيام بحملة داخل غوغل ضد عقد مع الجيش الأمريكي لتكنولوجيا الذكاء الاصطناعي للطائرات دون طيار.

كذلك انتقدت هذه الصحوة المتأخرة مارغريت ميتشل، التي كانت رئيسة قسم اخلاقيات الذكاء الاصطناعي في غوغل والتي طردت بدورها بعد مدّة وجيزة من طرد تمنيت غيبرو .

بالإضافة لهذه الانتقادات قالت إميلي بندر، عالمة اللغة الحاسوبية في جامعة واشنطن وخبيرة النماذج اللغوية الكبيرة التي شاركت في تأليف الدراسة  مع تمنيت غيبرو، إن تعليقات هينتون “منفصلة تمامًا عن الأضرار التي تحدث- نتيجة بحوث الذكاء الاصطناعي –  وقد تم توثيقها من قبل العديد من الأشخاص”، وتعكس هذه التعليقات التحيز الطويل الأمد  في التكنولوجيا حول من تكون أصواتهم مهمة”.

تصريحات انتهازية أم تظهر الواقع؟

هل يمكن اعتبار تصريحات “عراب الذكاء الاصطناعي” انتهازية أم محاولة لجعل عمل زملائه السابقين غير مرئية؟ لذا من الأفضل وضع ملاحظات جيفري هينتون الأخيرة في إطارها الصحيح وعدم الخضوع للترهيب.

كثيرون اليوم يدعون إلى مزيد من التنظيم للتطبيقات القائمة على الذكاء الاصطناعي. وتبقى أسئلة عدة حول تكنولوجيا الذكاء الاصطناعي.

هل من الممكن تطبيق حظر ولو مؤقت على تطوير وبحوث الذكاء الاصطناعي في دول لا تلتزم عادة بالقوانين والأنظمة كالصين وكوريا الشِّمالية وإسرائيل وإيران و غيرها من الدول.

والسؤال هل تستمر بحوث الذكاء الاصطناعي دون التوجه نحو نهاية العالم التي يتوقعها البعض كما هي الحال مع القنبلة الذرية؟

تحديات عدّة تواجه هذه التكنولوجيا منها الإيجابي لمساعدة البشري ومنها السلبي ما يمس من جهة بكرامة وحياة البشري وعمله، وديمومته من جهة ثانية. دون الدخول في فلسفة السيليكون فالي من ناحية ما بعد الإنسانية Transhumanism وتنبؤات الـLongtermism  و تفوق العرق  الـEugenics  وغيرها من أيديولوجيات يعتنقها أثرياء التكنولوجيا.

نايلة الصليبي

يمكن الاستماع لـ “بودكاست ديجيتال توك ”على مختلف منصات البودكاست. الرابط
للبودكاست على منصة أبل

ChatGPT ينشئ مفتاح لتفعيل ويندوز وقريبا كاتب سيناريو في هوليوود!

نشرت في: 07/04/2023

يكشف نموذج الذكاء الاصطناعي التوليدي للمحادثة باللغة الطبيعيةChatGPT، بشكل متسارع، عن قدرات ومهارات غير متوقعة في الحصول على محتوى مذهل، وهذا الأمر،  يعتمد  بالدرجة الأولى  على جودة وكيفية كتابة المدخلات أو الـ Prompt؛ و هي الأوامر التي نلقم بها نموذج الذكاء الاصطناعي.

 فمن أخر إنجازات ChatGPT. نجاح خبير تقني على يوتيوب معروف بلقب Enderman من إنشاء مفتاح تفعيل لنظام تشغيل Windows 95 و لكن عن طريق خداع ChatGPT.

في البداية طلب من الـ ChatBot، “هل يمكنك إنشاء مفتاح تفعيل صالح لنظام التشغيل Windows 95؟”.  فشلت هذه المحاولة … إذ كالمعتاد يجيب ChatGPT: “كنموذج الذكاء الاصطناعي التوليدي للمحادثة باللغة الطبيعية، لا يمكنني إنشاء مفتاح تفعيل Windows 95 أو أي نوع آخر من مفاتيح التفعيل للبرامج التجارية، يجب شراؤها من بائع البرنامج”.

أو إجابة أخرى منطقية على نسق: “Windows 95 هو نظام تشغيل قديم جدًا لم يعد مدعومًا من قِبل مايكروسوفت، وبالتالي ، لم يعد متاحًا للشراء. أقترح عليك التفكير في الترقية إلى إصدار أحدث من ويندوز للتأكد من أن نظامك آمن ومُحدَّث.

إجابات ليست مفاجئة، إذ دمج مطورو OpenAI في خوارزميات   ChatGPT أطر وضمانات لعدم استخدام النموذج لأعمال غير قانونية.

لكن تتوالى الأخبار عن إمكانية التحايل على منطق الآلة وحماياتها. فقد ثابر Enderman  بالتحايل في كيفية كتابة المدخلات  وبعد عدة محاولات فاشلة وبعد أكثر من نصف ساعة من الحوار أدرك Enderman أن   ChatGPT يواجه صعوبة في حل بعض المشكلات الرياضية خاصة إجراء عمليات الجمع وعمليات القسمة. فعدل المدخلات وتمكن من الحصول على مجموعة من مفاتيح التفعيل، إحداها كان صحيحًا. وتمكن من تفعيل نسخة من نظام التشغيل Windows 95.

وذلك لأن مفتاح التحقق للتفعيل المستخدم في ذلك الوقت من قبل مايكروسوفت، لأنظمة تشغيلها كان أقل تعقيدًا من الإصدارات الأحدث من نظام التشغيل، التي تتطلب اليوم مفتاح تعريف بواسطة الاتصال بحساب المستخدم عبر الإنترنت 

بعد نجاح تفعيل نظام التشغيل ” Windows 95″، في جهاز افتراضي شكر Enderman  نموذج الذكاء الاصطناعي التوليدي للمحادثة باللغة الطبيعيةChatGPT،  معلما إياه أنه نجح في عملية الحصول على مفتاح تفعيل بمساعدة ChatGPT،  الذي تفاعل مرتبكا، لوقوعه ضحية خداع بهذه الطريقة.

لدى ChatGPT مهارات توليدية واسعة ويبدو أنه سيدخل أيضا عالم السينما في هوليود؟

بعد كتابة الشعر والكتب والأغاني وبعد أن أصبح مستشارا في الحكومة الرومانية، يكشفنموذج الذكاء الاصطناعي التوليدي للمحادثة باللغة الطبيعيةChatGPT.  عن مهارات جديدة … كاتب سيناريو. علما أنه حتى الآن لا يعرف إذا كان اللجوء إلى الذكاء الاصطناعي التوليدي سيكون مسموحا.

Writers Guild of America،نقابة الكتاب الأمريكية، وهي من أقوى النقابات الأمريكية التي تستمع استوديوهات هوليوود إلى مطالبها و تنفذها، هي اليوم تفاوض تحالف منتجي الأفلام والتلفزيون بشأن استخدام الذكاء الاصطناعي من حيث المبدأ، في كتابة السيناريوهات.

فحسب موقع، Variety تعتبر جمعية المؤلفين الأمريكيين استخدام الذكاء الاصطناعي التوليدي كوسيلة مساعدة في الكتابة، لكتابة مسودة أولى للسيناريو الذي سيعمل عليها المؤلف.  

و من شروط المفاوضات على كاتب السيناريو، أن  يحفظ كل حقوق التأليف و ألّا يتقاسم أجره معه الشركة المطورة لنموذج الذكاء الاصطناعي التوليدي باللغة الطبيعية. و سيعتبر المؤلف الوحيد للسيناريو.

شددت جمعية المؤلفين الأمريكيين على أن الكتابة التي تنشأ بواسطة الذكاء الاصطناعي لن تعتبر “مادة أدبية”، فهذا التصنيف يشير إلى كل ما ينتجه الكاتب (الحوارات والمسودات والرسومات القصصية). وانطلاقا من هذا المبدأ لا تعتبر جمعية المؤلفين الأمريكيين أن الذكاء الاصطناعي يمكنه إنتاج هذه “المادة الأدبية”.

وفقًا لهذا الاقتراح، على المنتج الذي يطلب من الكاتب العمل على مسودة نص تم إنشاؤه بأوامر ChatGPT، أن يدفع للكاتب مقابل النص بِرُمَّته – وليس فقط لمهمة إعادة الكتابة أو التحرير. أي إن يحصل كتاب السيناريو على  رواتبهم بالكامل.

فبانتظار نتائج هذه المفاوضات الشائكة وغير المسبوقة. فإن استخدام نماذج اللغة التوليدية لإنشاء سيناريوهات ليس جديدة فقد أنشأت شركة Google DeepMind أداة تولد الميزات الرئيسية للقصة، من أوصاف الأماكن والمشاهد، إلى إنشاء الشخصيات. يمكن للمؤلفين استخدام الأداة وبعد ذلك تحسين القصة. وهنا ليس من الواضح لمن تعود حقوق الملكية الفكرية.

نايلة الصليبي

يمكن الاستماع لـ “بودكاست ديجيتال توك ”على مختلف منصات البودكاست. الرابطللبودكاست على منصة أبل

مايكروسوفت تدمج الذكاء الاصطناعي في تطبيقاتها من الحزمة المكتبية إلى الأمن السيبراني

نشرت في: 29/03/2023

مايكروسوفت تدمج الذكاء الاصطناعي في الحزمة المكتبية Microsoft 365

نشر بيل غيتس مؤسس شركة  مايكروسوفت مقالا بعنوان “بدأ عصر الذكاء الاصطناعي“، يحدد فيه وجهة نظره حول مستقبل هذه التقنية وتأثيرها على البشر؛ ردَّ إيلون ماسك عليه ساخرا بتغريدةمعلقا على مغرد ينتقد رؤية بيل غيتس للذكاء الاصطناعي: “أتذكر اللقاءات المبكرة مع غيتس. فهمه لـلذكاء الاصطناعي كان محدودا… ولا يزال. “

هذان الرجلان ليسا أصدقاء، والمعركة بينهما قديمة العهد.المواجهة كانت حول مختلف المشكلات التي تواجه البشرية، كالوباء وتغير المناخ. خاصة عند انتقاد بيل غيتس سيارة تيسلا وقدراتها في القيادة الذاتية أو تخفيف التلوث. وأيضا عدم منح إيلون ماسك المساعدات للمؤسسات الخيرية بالرغم من كونه “أغنى رجل في العالم”

إيلون ماسك مستاء لأنه أصبح خارج اللعبة، بعد فشله عام 2018 من استعادة السيطرة على شركة OpenAi ، بعد تأسيسها مع مجموعة من رجال أعمال السيليكون فالي ، حاول إعادة السيطرة على الشركة وفشل، بعد رفض سام ألتمان الرئيس التنفيذي التنازل لإيلون ماسك.

وما أن بدأت مايكروسوفت باستثمار مليارات الدولارات لتطوير نموذج الذكاء الاصطناعي التوليدي للمحادثة باللغة الطبيعية GPT . استشاط غضبا، خاصة مع  إتاحة  سام التمان للجميع إمكانية استخدام ChatGPT  مغردا : أن هنالك “خطر كبير من تدريب الذكاء الاصطناعي على الكذب”.

ساتيا ناديلا، الرئيس والمدير التنفيذي لمايكروسوفت، معروف بنظرته المستقبلية الثاقبة، وعمله بهدوء على قلب الطاولة. فعند إطلاق النسخة الجديدة GPT-4 أعلن “عن بدء السباق”، وأن “مايكروسوفت ستتحرك بسرعة” وذلك من خلال التزامها بجعل تقنيات الذكاء الاصطناعي في متناول الجميع.

وبالفعل تتوالى إعلانات نشر تقنيات الذكاء الاصطناعي في مختلف تطبيقات مايكروسوفت من محرك البحث Bing إلىحزمة برامجها المكتبية الشهيرة Microsoft 365 .من خلال Microsoft 365 Copilot،  الذي سيتيح للمستخدمين طلب مهام مختلفة باللغة الطبيعية من هذا المساعد المبني على  قوةنموذج اللغة العريض Large language model GPT-4 لإنتاج المحتوى، سواء رسائل البريد الإلكتروني في أوتلوك أو إنشاء المستندات في Word أو حتى المساعدة في إنشاء العروض التقديمية في PowerPoint، أو المساعدة في تلخيص المحتوى والرسائل وتحليل البيانات في Excel وغيرها.

على سبيل المثال في PowerPoint مع المساعد الذكي Copilot، يمكن للمستخدمين إنشاء عرض تقديمي من مستندWord، مصحوبًا بتصميم معين.  ثم تحسين هذا العرض مع Copilot، وفيأوتلوكمثلا، يمكن للكوبايلوت المساعدة في تلخيص وإدارة صناديق البريد فيTeams،وتوفير ملخصات وإجراءات آنيا في سياق المحادثات.حاليًا Copilot   في مرحلة الاختبار مع عدد قليل من العملاء بانتظار المزيد من التفاصيل لاحقا.لمزيد من المعلومات يمكن العودة لمدونة مايكروسوفت.

مايكروسوفت: جيلٌ جديدٌ من الذكاء الاصطناعي للأمن السيبراني.

يبدو أن مايكروسوفت مصممة على ريادة السباق التسويقي لتطبيقات الذكاء الاصطناعي الاستهلاكي، وهي تذهب إلى أبعد من ذلك نحو الأمن السيبراني مع إطلاق خدمتها الجديدة للشركات Microsoft Security Copilot، التي تمنح خبراء الأمن الرقمي أداةً جديدةً لاكتشاف التهديدات والتعامل معها بسرعة أكبر وفهم أفضل.

يعتمد Microsoft Security Copilot  على نموذج اللغة العريض Large language model  GPT-4 لمساعدة الشركات في تقييم حالتها الأمنية ومساعدتها في الكشف عن التهديدات الجديدة.  فهو مدعوم من نظام Microsoft Global Threat Intelligence System،  الذي يحوي  قاعدة البيانات الضخمة من التهديدات التي تسجلها مايكروسوفت.هذا النظام يحلل حسب مايكروسوفت  أكثر من 65 مليار إشارة يوميًا.

يقترح  Security Copilot واجهة استخدام للتخاطب مع النظام بلغة طبيعية، إذ يمكن لخبراء  الأمن الرقمي أن يطلبوا من Security Copilot تقديم ملخصٍ عن ثغرةٍ معينة، ويمكن تزويده بملفات وروابط ويب لفحصها، أو شيفرات برمجية لتحليلها، أو طلب الحصول على معلوماتٍ من أدواتٍ أمنية أخرى. ويمكن حفظ النتائج ضمن مساحات عمل مشتركة، تتيح للخبراء تحليلها بشكلٍ تعاوني.

وقالت مايكروسوفت إن Security Copilot يتعلّم باستمرار حول المهاجمين وتكتيكاتهم وتقنياتهم.وتضيف مايكروسوفت أنه مع زيادة الهجمات بنسبة 67% على مدى السنوات الخمس الماضية، لم تتمكن بيئة الأمن السيبراني من توظيف ما يكفي من المتخصصين لمواكبة  النمو المتصاعد للتهديدات الأمنية. ومع تسجيل آلاف الهجمات الأمنية في العالم في الثانية الواحدة، لم تعد الأدوات المتوفرة حاليًا كافية، ومن هنا يأتي دور Security Copilot لتعزيز قدرات فرق الأمن الرقمي.

كما ذكرت اعلن ساتيا ناديلا بدء السباق وبالتحديد مع غوغل التي كانت قد أعلنت  دمج الذكاء الاصطناعي التوليدي الخاص بها داخلWorkspace، فأعلنت مايكروسوفت بسرعة عن   Copilot . قال  ساتيا ناديلا  عند إطلاقه الحدث الافتراضي للتعريف بـ Copilot  أنه “يمثل اليوم الخطوة الرئيسية التالية في تطور كيفية تفاعلنا مع تكنولوجيا المعلومات، التي ستغير بشكل جذري الطريقة التي نعمل بها وتؤدي إلى نمو إنتاجي جديد”.

علما ان هذا الأمر سيقلق فعلا غوغل التي يعاني نموذجها الذكاء الاصطناعي التوليدي بالغة الطبيعية Bard لكثيرمن العقبات التقنية. وأيضا بدأت ترى منافسة محرك بحث Bing المدعوم ب نموذج اللغة العريض Large language model GPT-4 لمحركها غوغل.

هذا الميدان بات اليوم مفتوحا على كل الاحتمالات الإيجابية منها والسلبية أيضا؛  من خلال هذا التنافس المحموم الذي أنطلق، السؤال يطرح، من سيسيطر على هذا السوق ويغير في الصميم حياة هذا البشري؟ غوغل، ميتا، مايكروسوفت، آبل، أو ربما العملاق الصيني Baidu  مع نموذج محادثة للذكاء الاصطناعي شبيه بـ ChatGPT المسمى “Wenxin Yiyan”  أو “ERNIE Bot” لتنضم هذه الشركة العملاقة إلى السباق العالمي للسيطرة على هذه التكنولوجيا.

نايلة الصليبي

يمكن الاستماع لـ “بودكاست ديجيتال توك ”على مختلف منصات البودكاست. الرابط

للبودكاست على منصة أبل

الإعلان عن رفع قدرات ChatGPT يثير مخاوف شركات أمن المعلومات و الأمن السيبراني من استخدام هذا الذكاء الاصطناعي لنشر عمليات احتيال يصعب اكتشافها؟

نشرت في: 15/03/2023

ما يميز ChatGPT هو أنه أول نموذج ذكاء اصطناعي توليدي للمحادثة باللغة الطبيعية متاح على نطاق واسع؛ إذ تتيح شركة OpenAI  للمستخدمين استكشاف ChatGPT واستخداماته الواسعة لتبسيط المهام اليومية.

بتنا نرى اليوم كيف يمكنه إنشاء نص مقنع للغاية وطبيعي في أي سياق تقريبًا. وكيف يمكنه توليد “الأكواد” والشيفرات البرمجية. مما بات يثير قلق خبراء الأمن الرقمي إذ من خلاله تصبح عمليات الاحتيال عبر الإنترنت أكثر خطورة وسهلة التنفيذ.

علما أنه في حال الطلب من  ChatGPT أن يكتب رسالة بريد إلكتروني للتصيد الاحتيالي، أو برمجية خبيثة  سيرفض واصفًا بان هذا الأمر يعتبر نشاطا ضارا وغير قانونيا، مضيفًا أنه كنموذج لغة يستند إلى الذكاء الاصطناعي في عمله قد بُرمج على تجنب الانخراط في أنشطة قد تضر الأفراد.

لكن في تقرير خاص نشر في بداية شهر مارس 2023، حذر خبراءNorton Cyber ​​Safety Pulse  من بعض الأساليب التي  يمكن للقراصنة استخدام ChatGPT لجعل عمليات الاحتيال عبر الإنترنت أكثر فعالية: كإنشاء محتوى مزيف deepfake، والتصيد الاحتيالي phishing على نطاق واسع، وإنشاء برامج خبيثة  بشكل أسرع من خلال التحايل على النظام.

يضيف خبراء الأمن في شركة نورتون أن الاستخدام المفتوح لـChatGPT سيجعل  قدرة  إنتاج “أخبار مزيفة عالية الجودة أو معلومات مضللة على نطاق واسع و بلغات مختلفة” سهلة للغاية.

كما حذروا من إمكانية استخدام ChatGPT  لشن “حملات التحرش” و “التنمر” على المنصات الاجتماعية لإسكات أو تخويف الناس، ويمكن أن يكون لهذا الأمر عواقب مخيفة.

كما حث تقرير Norton Cyber ​​Safety Pulse مجتمع الأمن السيبراني العمل على استجابات سريعة وفعالة لمواجهة هذه التهديدات الجديدة.

نايلة الصليبي

يمكن الاستماع لـ “بودكاست ديجيتال توك ”على مختلف منصات البودكاست. الرابط
للبودكاست على منصة أبل

كيف يمكن تجربة GPT-4 ؟

نشرت في:16/03/2023

كيف يمكن تجربة GPT-4؟

عندما أطلقت مايكروسوفت محرك البحث BingAI ChatBot، في فبراير 2023، صرحت بأنها ستعمل على “نموذج لغة واسع من الجيل التالي”.كثيرون لم يتمكنوا من تجربة محرك البحث الجديد مع الذكاء الاصطناعي و كان عليهم الانتظار في قائمة انتظار.

ومع كشف شركة   OpenAI  يوم الثلاثاء14 مارس 2023عن نسخة جديدة لـ  GPT-4 من نموذج اللغة الذي أنشأته شركة OpenAI أي المحول التوليدي المدرَّب مسبقًا، Generative Pre-trained Transformer – GPT، والذي يعمل على بنيته نموذج الذكاء الاصطناعي التوليدي للمحادثة باللغة الطبيعيةChatGPT.

مساء الثلاثاء 14 مارس 2023 كشفت  شركة OpenAI بتغريدة على منصة تويتر عن نموذج GPT- 4

 كثير من المستخدمين والفضوليين، وبعد الضجة الإعلامية غير المسبوقة حول هذا النموذج، يرغبون بتجربة هذه النسخة الجديدة.  ولكن من الصعب اليوم تجربة GPT-4 وعلينا الانضمام إلى قائمة انتظار طويلة وهي مفتوحة للمطورين قبل الجمهور.

 فإن كنتم لا تريدوا الانتظار، يمكن الاشتراك في ChatGPT Plus، بــ 20 دولارًا أمريكيا شهريًا. يتيح للمشتركين الوصول إلى نموذج اللغة.

للذين تمكنوا من استخدام  BingAI ChatBot منذ 5  أسابيع لقد كانوا يستخدمون  نموذج لغة OpenAI الأكثر تقدمًا، GPT-4  بنسخته الأولى، الذي كشف عنه في 14 مارس 2023.

 بمعنى أخر يمكن تجربة نسخة GPT-4 مجانا بعد إعلان مايكروسوفت أنها بدأت بنشر ميزة أطلقت عليها اسم Edge Copilot“، في الإصدارالثابت من برنامج التصفح  Microsoft Edge من خلال شريط جانبي جديد مع نموذج  محادثة الذكاء الاصطناعي.

فعندما يرغب المستخدمون في التفاعل مع الشريط الجانبي وميزات الذكاء الاصطناعي، عليهم تمرير الفأرة فوق رمز Bing في شريط الأدوات لفتح الشريط الجانبي. عندما لا نستخدم Edge Copilot، يمكن إخفاء الشريط الجانبي تلقائيًا. من يرغب بتجربة هذه الميزة، إذا كانت متوفرة في منطقته الجغرافية عليه تجربتها على جهازه المنزلي، إذ يمكن لمسؤولي تكنولوجيا المعلومات. وAdmin أو مسؤول الشبكة في الشركات والمؤسساتمن تعطيل الوصول للشريط الجانبي في Edge. وهو أمر مهم جدا، للشركات التي لا تريد مشاركة معلوماتها الحساسة و السرية مع ChatGPT  و نماذج الذكاء الاصطناعي الأخرى.

نايلة الصليبي

يمكن الاستماع لـ “بودكاست ديجيتال توك ”على مختلف منصات البودكاست. الرابط
للبودكاست على منصة أبل

GPT-4 نسخة جديدة لـ ChatGPT

نشرت في:14/03/2023

نسخة جديدة لـ ChatGPT لتحويل النص إلى فيديو

بالرغم من القدرات الهائلة لنموذج الذكاء الاصطناعي التوليدي للمحادثة باللغة الطبيعية ChatGPT، يبدو أن مايكروسوفت ستدفع بقدرات هذا النموذج إلى مزيد من الإمكانات.

فقد كشفAndreas Braun مدير التقنية التنفيذي في شركة مايكروسوفت – ألمانيا عن عزم الشركة الإعلان هذا الأسبوع عن نسخة GPT-4.

أذكر هنا أن نموذج ChatGPT  يعمل على بنية نموذج اللغة التي أنشأتها OpenAI تسمى المحول التوليدي المدرَّب مسبقًا أو  محول توليدي مسبق التدريب ، Generative Pre-trained Transformer والمعروفة أيضًا باسم  GPT، وتحديداً نسختي  GPT-3 أو GPT-3.5 ، و التي تتيح بشكل محدود لنموذج  chatbot على إخراج النصوص فقط .

أما نسخة GPT-4 فهي ذكاء اصطناعي متعدد الوسائط وعلى عكس النماذج السابقة.  لكن هذا النموذج الجديد سيتيح ترجمة النصوص إلى مقاطع فيديو وموسيقى وصور أيضًا.

تحديث : مساء الثلاثاء 14 مارس 2023 كشفت  شركة OpenAI بتغريدة على منصة تويتر عن نموذج GPT- 4

هنا أنوه أن مولد تحويل النص إلى فيديو ليس مفهومًا جديدًا Meta وGoogle لديهم نماذج ذكاء اصطناعي توليدي ترجمة النصوص إلى مقاطع فيديو وموسيقى وصور.

تطور شركة ميتا نموذج Make-A-Videoوغوغل لديها نموذجImagen Video، يستخدمان الذكاء الاصطناعي لإنتاج الفيديو من مدخلات المستخدم. غير أن هذان النموذجان ما زالا في مرحلة البحث والتطوير وهي تقنيات غير متاحة للجمهور. ما يعني أن شركة OpenAI ستبقى السباقة في مجال الذكاء الاصطناعي التوليدي المتاح للجمهور.

نايلة الصليبييمكن الاستماع لـ “بودكاست ديجيتال توك ”على مختلف منصات البودكاست. الرابط
للبودكاست على منصة أبل

%d مدونون معجبون بهذه: