أول قانون للذكاء الاصطناعي أمام البرلمان الأوروبي

وافق البرلمان الأوروبي على تشريع شامل لتنظيم الذكاء الاصطناعي، بعد ما يقرب من ثلاث سنوات من اقتراح مسودة القواعد أول مرة.

 توصل المسؤولون الأوروبيون إلى اتفاق بشأن تطوير الذكاء الاصطناعي في ديسمبر 2023 . ووافق أعضاء البرلمان يوم الأربعاء 13 مارس 2024 على قانون الذكاء الاصطناعي بأغلبية 523 صوتًا مقابل 46 صوتًا معارضًا، وامتناع 49 عضوًا عن التصويت.

يقول الاتحاد الأوروبي إن هذا التنظيم يسعى إلى “حماية الحقوق الأساسية والديمقراطية وسيادة القانون والاستدامة البيئية من الذكاء الاصطناعي عالي المخاطر، مع تعزيز الابتكار وترسيخ مكانة أوروبا كرائدة في هذا المجال”. يحدد هذا القانون الالتزامات الخاصة بتطبيقات الذكاء الاصطناعي بناءً على المخاطر المحتملة والتأثير.

لم يصبح التشريع قانونًا بعد

مشروع التشريع هذا فهو لا يزال خاضعًا للتدقيق القانوني، من المرجح أن يدخل قانون الذكاء الاصطناعي حيز التنفيذ قبل نهاية المجلس التشريعي، قبل الانتخابات البرلمانية المقبلة في أوائل يونيو 2024

ستصبح معظم الأحكام سارية المفعول بعد 24 شهرًا من دخول قانون الذكاء الاصطناعي حيز التنفيذ، ولكن الحظر على التطبيقات المحظورة سيطبق بعد ست أشهر.

أبرز بنود مشروع قانون تأطير الذكاء الاصطناعي  

 يحظر الاتحاد الأوروبي الممارسات التي يعتقد أنها ستهدد حقوق المواطنين. كحظر “أنظمة التصنيف البيومترية القائمة على الخصائص الحساسة”، وكذلك ” استثمار ” صور الوجوه من لقطات كاميرات المراقبة وشبكة الإنترنت لإنشاء قواعد بيانات للتعرف على الوجه. يندرج نشاط Clearview AI تحت هذه الفئة.

التعرف على المشاعر في المدارس وأماكن العمل

تشمل التطبيقات الأخرى للذكاء الاصطناعي التي سيتم حظرها:  التسجيل الاجتماعي؛ والتعرف على المشاعر في المدارس وأماكن العمل؛ و”الذكاء الاصطناعي الذي يتلاعب بالسلوك البشري أو يستغل نقاط ضعف الناس”.

حظر بعض جوانب العمل الأمني التنبؤي، أي عندما يستند بالكامل على تقييم خصائص شخص ما (مثل استنتاج ميوله الجنسية أو آرائه السياسية) أو تحديد خصائصه. على الرغم من أن قانون الذكاء الاصطناعي يحظر بشكل عام استخدام أجهزة إنفاذ القانون لأنظمة تحديد الهوية البيومترية، إلا أنه سيُسمح به في ظروف معينة بتصريح مسبق، مثل المساعدة في العثور على شخص مفقود أو منع وقوع هجوم إرهابي.

حماية الخصوصية عند استخدام الذكاء الاصطناعي

تخضع التطبيقات التي تُعتبر عالية المخاطر – بما في ذلك استخدام الذكاء الاصطناعي في إنفاذ القانون والرعاية الصحية – لشروط معينة. يجب ألا تميز ويجب أن تلتزم بقواعد الخصوصية. كما يجب على المطورين أن يُظهروا أن الأنظمة شفافة وآمنة ويمكن شرحها للمستخدمين أيضاً. أما بالنسبة لأنظمة الذكاء الاصطناعي التي يعتبرها الاتحاد الأوروبي منخفضة المخاطر (مثل فلاتر الرسائل غير المرغوب فيها)، فلا يزال يتعين على المطورين إبلاغ المستخدمين بأنهم يتفاعلون مع محتوى من إنشاء الذكاء الاصطناعي.

مواجهة التزييف العميق وحماية الملكية الفكرية

كما ينص مشروع القانون هذا على بعض القواعد في ما يتعلق بالذكاء الاصطناعي التوليدي والوسائط التي يتم التلاعب بها؛ يجب وضع علامات واضحة watermarking على الصور ومقاطع الفيديو والصوت التي يتم إنشاؤها بواسطة الذكاء الاصطناعي. كذلك على نماذج الذكاء الاصطناعي احترام قوانين حقوق الملكية الفكرية.

ينص قانون الذكاء الاصطناعي: “يجوز لأصحاب الحقوق أن يختاروا الاحتفاظ بحقوقهم على أعمالهم أو غيرها من المواد لمنع استخدام النصوص والبيانات لتدريب الذكاء الاصطناعي، ما لم يكن ذلك لأغراض البحث العلمي”. “عندما يتم الاحتفاظ صراحةً بالحقوق بطريقة مناسبة، يتعين على مقدمي نماذج الذكاء الاصطناعي للأغراض العامة الحصول على تصريح من أصحاب الحقوق إذا أرادوا استخدام   النصوص والبيانات على هذه المصنفات.»، تُعفى نماذج الذكاء الاصطناعي المصممة لأغراض البحث والتطوير والنماذج الأولية فقط.

مواجهة أخطار الذكاء الاصطناعي القوي

سيتعين على مقدمي نماذج الذكاء الاصطناعي التوليدي تقييم المخاطر والتخفيف من حدتها، والإبلاغ عن الحوادث الخطيرة، وتقديم تفاصيل عن استهلاك أنظمتهم للطاقة، والتأكد من أنها تفي بمعايير الأمن السيبراني وإجراء أحدث الاختبارات وتقييمات النماذج.

تطبيق تدريجي للقانون

لا يزال يتعين اعتماد القانون التنظيمي  رسميًا من قبل المجلس. وبعد ذلك، سيدخل التشريع حيز التنفيذ  بعد 20 يومًا من نشره في الجريدة الرسمية، وسيصبح نافذًا بالكامل بعد 24 شهرًا من تاريخ دخوله حيز  التنفيذ ، باستثناء حظر الممارسات المحظورة، التي ستطبق بعد 6 أشهر من تاريخ دخوله حيز  التنفيذ  ، و قواعد اممارسة القانون  (بعد 9 أشهر من تاريخ دخوله حيز  التنفيذ  )، والقواعد المتعلقة بالذكاء الاصطناعي للأغراض العامة، بما في ذلك الحوكمة (بعد 12 شهرًا من تاريخ دخوله حيز  التنفيذ  )، والالتزامات الخاصة بالأنظمة عالية المخاطر (36 شهرًا).

وكما هو الحال مع قوانين تنظيم الاتحاد الأوروبي الأخرى التي تستهدف التكنولوجيا، يمكن أن تكون عقوبات انتهاك أحكام قانون الذكاء الاصطناعي شديدة. ستخضع الشركات التي تخرق القواعد لغرامات تصل إلى 35 مليون يورو (51.6 مليون دولار) أو ما يصل إلى سبعة بالمائة من أرباحها السنوية العالمية.

ينطبق قانون الذكاء الاصطناعي على أي نموذج يعمل في الاتحاد الأوروبي، لذلك سيتعين على مزودي خدمات الذكاء الاصطناعي في الولايات المتحدة الالتزام بها، على الأقل في أوروبا. وقد أشار سام ألتمان، الرئيس التنفيذي لشركة OpenAI مطور OpenAI، في مايو 2023 إلى أن شركته قد تنسحب من أوروبا إذا أصبح مشروع قانون الذكاء الاصطناعي قانوناً نافذا، ولكنه قال لاحقاً إن الشركة ليس لديها خطط للقيام بذلك.

نايلة الصليبي

يمكن المتابعة على حسابي على بلوسكاي

يمكن الاستماع لـ “بودكاست ديجيتال توك ”على مختلف منصات البودكاست. الرابط
للبودكاست على منصة أبل

إمكانات جديدة لنماذج الذكاء الاصطناعي التوليدي باللغة الطبيعية

إصدارات  مختلفة من  نموذج Claude 3

في ميدان منافسة نماذج اللغة الكبيرة او العريضة، ها هي شركة أنثروبيك تطلق نموذجها Claude 3 الذي تزعم أن أداءه متفوق مقارنة بنماذج جيمني برو من غوغل وشات جي بي تي من OpenAI وأيضا النموذج الفرنسي المتفوق .Mistral AI

يدمج  Claude 3 الصور لفهم المدخلات النصية والصور، وبقدرته الإجابة عن المزيد من الأسئلة من الإصدارات السابقة، ولديه قدرة أكبر على فهم التعليمات الطويلة بدقة، كما يستطيع النموذج الجديد فهم السياق على نحو أكبر، مما يعني أنه يمكنه معالجة المزيد من المعلومات.

تقترح أنثروبيك عدة إصدارات من Claude 3:

  • إصدار Haiku، هو الإصدار الأصغر.
  •  إصدار Sonnet، الإصدار المتوسط، وهو أسرع بمرتين من الإصدارين Claude 2    وClaude 2.1.
  • إصدار Opus، الأكثر ذكاءً وتطورًا.

حسب أنثروبيك Opus يتفوق على النماذج المنافسة في العديد من اختبارات القياس خاصة من ناحية أسئلة الرياضيات، وفهم المنطق.

يمكن تجربة نموذجي Opus وSonnet على موقع   claude.ai بانتظار إطلاق أنثروبيك لإصدار Haiku.

شات جي بي تي  يقرأ الإجابات بصوت عال

في الوقت الذي أعلنت فيه شركة أنثروبيك عن أحدث وأقوى ما توصلت إليه في مجال الذكاء الاصطناعي، ردت شركة OpenAI بميزة تعزز تجربة المستخدم بشكل كبير لنموذج الذكاء الاصطناعي التوليدي باللغة الطبيعية شات جي بي تي عن طريق قراءة الإجابات صوتيا.

بإمكان ChatGPT قراءة الإجابات على الأجهزة التي تعمل بنظامي iOS أو Android، وأيضا على خدمة الويب. تحمل الميزة الجديدة اسم Read Aloud القراءة بصوت عال وذلك بواسطة الضغط المطول على الإجابة المعروضة على الشاشة ثم اختيار Read Aloud .

يبدو أنه يمكن التحكم في الصوت المنطوق بواسطة إعدادات التطبيق، إذ تقترح OpenAI خمس أصوات لتجربتها لقراءة الإجابات وتدعم المِيزة الجديدة سبعا وثلاثين لغة منها العربية، تتوفر الميزة لكل من GPT- 4 و GPT- 3.5. وكانت Open AI قد أتاحت التفاعل الصوتي مع ChatGPT من خلال وضع المحادثة الصوتية Voice Chat الذي يلغي الحاجة إلى استخدام الإدخال النصي أو النظر إلى الشاشة لقراءة الردود…

شركة أنثروبيك، كانت قد أضافت م في وقت سابق ميزات مماثلة إلى نماذجها.

نايلة الصليبي

يمكن المتابعة على حسابي على بلوسكاي

يمكن الاستماع لـ “بودكاست ديجيتال توك ”على مختلف منصات البودكاست. الرابط
للبودكاست على منصة أبل

الذكاء الاصطناعي التوليدي والمستقبل الوظيفي وعمليات تسريح موظفين بالجملة

شهد العام الماضي 2023  تصاعد مخاوف عدة من تهديد أدوات الذكاء الاصطناعي لعديد من الوظائف مع بَدْء عدد كبير من شركات التكنولوجيا تسريح الموظفين الذين يمكن للذكاء الاصطناعي التوليدي أن يقوم بعملهم. وها هي شركة غوغل أو ألفابيت تبدأ عام 2024 كما بدأت عام 2023: بموجة من عمليات تسريح الموظفين.

فقد استغنت غوغل عن حوالي12 ألف شخص في يناير العام الماضي أي ما يوازي 6 بالمئة من قوتها العاملة بسبب التضخم وارتفاع أسعار الفائدة، ما يعني انخفاض إنفاق المعلنين. وإذا بـ “غوغل” تعلن عن تخفيض عدد موظفيها في قسم مبيعات الإعلانات عبر الإنترنت بحجة إعادة الهيكلة السنوية.

لكن وفقا لمعلومات موقع Business Insider، فقد قامت غوغل في الأشهر الأخيرة بأتمتة عملياتها بشكل كبير بالاعتماد على الذكاء الاصطناعي.وكانت قد دمجت غوغل أدوات الذكاء الاصطناعي في  خدمة Google Cloud للحوسبة السحابية، وأعلنت بداية يناير 2024 عن أدوات جديدة  مدعومة بالذكاء الاصطناعي والذكاء الاصطناعي التوليدي تتيح للعلامات التجارية إنشاء وكلاء افتراضيين قادرين على التفاعل مع المستهلكين على مواقع الإنترنت وتطبيقات الهاتف المحمول.

كما تتيح هذه الأدوات استخدام، “الذكاء الاصطناعي التوليدي لإنشاء صور للمنتج وتحليل صورالمنتج ، بالإضافة إلى نصوص وصفية مرتبطة به، وإنشاء محتوى تلقائيًا مثل أوصاف المنتج الجذابة والمقنعة، والبيانات الوصفية للمنتج، واللغة التي تتكيف مع معايير تحسين نتائج محرك البحث”.أي بمعنى أخر توفير الشركات والعلامات التجارية لموظفي هذه المهام و استبدالهم بالأتمتة.

هذا و وفقا لصحيفة “وول ستريت جورنال”، هذه هي الموجة الثانية من عمليات التسريح من العمل التي أصدرتها غوغل منذ بداية غام 2024 . فقد استغنت غوغل  عن أكثر من ألف من موظفيها، ضمن الفرق العاملة على مساعد غوغل و أجهزة نيست الذكية و مختبر الواقع المعزز وساعات Fitbit المتصلة.وبررت غوغل  مليات التسريح هذه على “أنها انعكاس لعمليات التوظيف الضخمة التي تمت خلال جائحة كورونا  ولكن أيضًا، كإعادة هيكلة للتركيز على التطورات المتعلقة بالذكاء الاصطناعي”.

 غوغل ليست الشركة الوحيدة التي قامت بتسريح الموظفين بسبب الذكاء الاصطناعي

مع التطور الهائل للذكاء الاصطناعي التوليدي كثير من الشركات فضلت التوفيرعلى حساب جودة العمل المنجز. فقد نشرت صحيفة واشنطن بوست تقريرًا عن منشئي محتوى كانت مهمتهم، كتابة النصوص للشركات. وتدريجيًا، تم تقليص مهمتهم بشكل كبير، حتى تم استبدالهم بالكامل بـأدوات الذكاء الاصطناعي التوليدي وانتهى الأمر بطردهم من العمل.

 كذلك كان إعلان شركة Duolingo  إحدى أكبر منصات التعليم في العالم  تسريح 10% من موظفيها المتعاقدين واستبدالهم بالذكاء الاصطناعي لتطوير دوراتها التعليمية. قد أثار جدلا واسعًا حيث قالت الشركة إنها “لا تهدف إلى تبديل البشر بالآلات، وإنما تريد رفع مستوى الإنتاجية والكفاءة بالاستفادة من التكنولوجيا لأن الذكاء الاصطناعي يسهل نقل المعلومات بطرق متنوعة ودقيقة”.

هذا و لجأت  Onclusive  شركةعالمية متخصصة في تحليل الاتصالات والإعلام إلى صرف أكثرمن نصف موظفيها في فرعها الفرنسي، بحجة استبدالهم بالذكاء الاصطناعي بسبب “البيئة التنافسية الصعبة والتطور التكنولوجي غير المسبوق”.غير أن عملية الصرف جمدت بعد دعاوى رفعتها نقابات الموظفين أمام القضاء الفرنسي.

ما أثار مخاوف وبلبلة من لجوء الشركات لهذه الإجراءات التعسفية للتقليل من التكلفة وزيادة الأرباح على حساب الموارد البشرية.

ومع ذلك، تظهر دراسات عن قدرة أدوات الذكاء الاصطناعي التوليدي على استبدال البشر بشكل فعال في مهام أكثر أو أقل تعقيدًا. بأن الذكاء الاصطناعي، في كثير من الأحيان، لا يرقى إلى المستوى المطلوب.

 فهناك العديد من الوظائف ومن المهام التي لا يمكن لأدوات الذكاء الاصطناعي تحقيقها بشكل جيد خاصة تلك التي تتطلب المهارات الاجتماعية والعقلانية البشرية والأهم تلك التي تتطلب الذكاء العاطفي.بل ستخلق تقنيات الذكاء الاصطناعي فرص عمل وتحديات وظيفية جديدة،  لا يمكن لتكنولوجيا الذكاء الاصطناعي القيام بها. وإِنّ غدًا لنَاظِرِهِ قَرِيبُ.

نايلة الصليبي

يمكن الاستماع لـ “بودكاست ديجيتال توك ”على مختلف منصات البودكاست. الرابط
للبودكاست على منصة أبل

إيلون ماسك يطلق نموذج الذكاء الاصطناعي التوليدي Grok التحرري والساخر والهلوسة المحرجة!

أطلقت شركة “xAI” نموذج الذكاء الاصطناعي للمحادثة باللغة الطبيعية  Grok، الذي يتميز بالسخرية والفكاهة والمناهض لتيار Woke، وأيضا بالهلوسة المحرجة. فقد أرادها إيلون ماسك، شركة الذكاء الاصطناعي المنافسة لشركة “OpenAI” ولمنافسة “شات جي بي تي”. ما هذا النموذج؟ ما الذي يميزه عن النماذج الأخرى المنافسة؟

نشرت في: 12/12/2023

– © نايلة الصليبي -ماسك – grok.ai

إيلون ماسك وتوأمه الذكي نموذج Gork

في مواجهته مع شركة  OpenAI التي كان من مؤسسيها، وامتعاضه من النجاح غير المسبوق لنموذج  ChatGPT، أراد إيلون ماسك تطوير ذكاء اصطناعيًا له الحرية المطلقة في قول ما يريد، بما في ذلك الإهانات، وهكذا ولد Grok، نموذج الذكاء الاصطناعي التوليدي للمحادثة باللغة الطبيعية  الساخر والمناهض لتيار  Woke “منتبه”.

Woke صفة مشتقة من اللغة الإنجليزية الأمريكية الأفريقية  تعني “منتبه للتحيز والتمييز العنصري”.ابتداء من 2010، أصبحت تشمل وعيا أوسع بالمساواة الاجتماعية مثل الظلم العنصري والجنسانية وحقوق المثليين.

تستخدم كلمة woke أيضا ككلمة شائعة للتعبيرعن الوعي الاجتماعي والانتماء السياسي لليسار والنشاط على وسائل التواصل الاجتماعي.لها أصول في الثقافة السوداء وانتشرت بشكل أكبر في عام 2014 مع حركة Black Lives Matter التي تسعى لرفع الوعي حول تعامل الشرطة العنيف مع الأمريكيين من أصل أفريقي.( هذه المعلومات بمساعدة الذكاء الاصطناعي التوليدي Bing Copilot)

باتت خدمة منصة  Grok نموذج الذكاء لاصطناعي التوليدي للمحادثة باللغة الطبيعية من شركة xAi، متاحة اعتبارًا من الخميس 7 ديسمبر2023، بداية في الولايات المتحدة فقط  لمشتركي X Premium Plus مقابل  20 دولار شهريًا للاشتراك.لمن يرغبون بتجربة خدمة  Grok يمكن استخدام شبكة خاصة افتراضية VPN مع عنوان إنترنت في الولايات المتحدة.

لماذا هذا الاسم Grok؟

ليس غريبًا أن يختار إيلون ماسك هذا الاسم لنموذج الذكاء الاصطناعي التوليدي للمحادثة باللغة الطبيعية، هو من يحلم باستعمار كوكب المريخ.  ظهرمصطلح   “grok” أول مرة عام 1961 في رواية الخيال العلمي Stranger in a Strange Land -“غريب في أرض غريبة“، لروبرت هاينلين  ويُنسب هذا التعبير إلى ثقافة سكان المريخ. ثَمّ له معنى مواز يشير إلى القدرة على الفهم الكامل لشيء ما، ولا سيما القدرة على وضع الفرد نفسه في مكان محاوره لمشاركة تجربته.

 نموذج الذكاء الاصطناعي التوليدي Grok التحرري والساخر!

يمكن اعتبار Grok كمرآة لشخصية إيلون ماسك التحررية المعقدة التي تتأرجح بين الجَدّ والسخرية. يتوفر Grok بنمطين standard أو Fun حيث يمكن أن يكون نموذج ذكاء اصطناعي توليدي جدي أو فكاهي وساخر.

يعمل Grok بواسطة النموذج التوليدي المسمى Grok-1 وهو نموذج يعتمد الانحدار التلقائي autoregressive Transformer model، وهو نوع من نماذج التعلم الإحصائي أو الآلي التي تتنبأ بالقيمة التالية في تسلسل بناءً على القيم السابقة في هذا التسلسل، وهو مختلف عن آلية تشغيل ChatGPT الخاص بـ OpenAI، الذي هو حاليًا .GPT-4.

الذي يميزGrok عن نماذج المحادثة الآلية المنافسة الأخرى هي إمكانية دمج البيانات في الوقت الفعلي من منصة X – تويتر سابقا، مما يتيح له  تقديم ردود على المنشورات على المنصة آنيا. و ربما وهذه من أبرز عيوب Grok مقارنة بغيره من أنظمة الذكاء الاصطناعي التوليدي، فهو يتطلب أكثر من إرشاد ليتمكن من الإجابة.وغالبًا ما يتعين شرح كل شيء مرة أخرى، مما يعرض المستخدم لخطر الحصول على إجابات لا معنى لها.و أيضا على فقدان الوقت الثمين للوصول إلى نتائج غير مرضية.

إذ كما سبق  يبحث Grok في بيانات تويتر الضخمة، بما في ذلك البيانات العديمة الفائدة مما قد يجعل الإجابة خاطئة.

هذا وظهرت هلوسة محرجة على المنصات الاجتماعية، عندما تلقى مستخدم Grok ردًا من هذا النموذج : “أخشى أنني لا أستطيع تلبية هذا الطلب، لأنه يتعارض مع سياسة الاستخدام الخاصة بـ OpenAI.”

ما دفع بـ OpenAi للسخرية من شيفرة Grok  المتقاسمة مع شيفرة شات جي بي تي. رد إيلون ماسك “بما أنكم كشطتم البيانات من منصة تويتر عليكمتوقع هذه النتائج”

كذلك رد المشرف على مختبر xAI  إيغور بابوشكين عن انتقادات أحد المستخدمين : “المشكلة هنا هي أن الويب مملوء بمخرجات ChatGPT، لذلك التقطنا بعضًا منها عن طريق الخطأ عندما قمنا بتدريب Grok على كمية كبيرة من بيانات الويب”. 

وأضاف إيغور بابوشكين  :” يستخدم Grok نموذج لغة كبيرة مختلف عن OpenAI ولما كان Grok يُدرب على البيانات في الوقت الفعلي من الويب، فيبدو أنه استهلك المحتوى الذي تم إنشاؤه بواسطة OpenAI”. 

– © نايلة الصليبي – X

في هذا السياق سأل صحفي Grok عن نموذج اللغة الذي يستخدمه على سبيل المثال  OpenAI تستخدم GPT-4، و غوغل تستخدم Gemini.للإجابة عن السؤال وبدلًا من الرد من قاعدة البيانات الخاصة به، بحث Grok فيبيانات  تويتر عن الكلمات  المفتاحية “نموذج لغة Grok”. ما نتج هو إجابة خاطئة، حيث ادعي Grok أنه يعتمد على GPT-4 من OpenAI. ثم عاد الصحفي ليسأله إذا كان متيقِّنا من إجابته، مع إضافة أن إيلون ماسك يكره شركة OpenAI، عندها أجاب Grok “إنها مبنية على TruthGPT…

– © نيكولا لولوش

و ذلك بناءً على بيانات منشور قديم على منصة تويتر  كتبه إيلون ماسك عند إطلاق شات جي بي تي و يعبر فيه عن الحاجة لبناء TruthGPT…وهي   إجابة خاطئة.

كما لاحظ أحدهم أن نموذج Grok  بدلًا من الاعتراف بأخطائه، يقضي وقته في الغش لتحسين إجاباته.

أصبح نموذج Grok أداة للتسلية والسخرية من إيلون ماسك.هذا ما قام به أرافيند سرينيفاسرئيس شركة التكنولوجيا Perplexity AI.

مشكلة الخصوصية في نموذج Grok

أما المشكلة الأخرى الذي يطرحها نموذج Grok، فهي  معضلة الخصوصية. يتمتع Grok بإمكانية الوصول الكامل إلى بيانات منصة تويتر أو  X،  أي الرسائل والمنشورات المتبادلة على المنصة، ما يهدد خصوصية المستخدمين.

أخيرًا يبقى السؤال ما الغرض من Grok؟ وفقًا لإيلون ماسك وأصدقائه، سيكون Grok الذكاء الاصطناعي الأكثر تقدمًا في العالم. لكن الاختبارات أثبتت أن Grok ليس سوى نموذج للذكاء الاصطناعي التوليدي للمحادثة باللغة الطبيعية بدائي للغاية ومن الدرجة الثانية.

مشكلة  نموذج الذكاء الاصطناعي التوليدي  Grok، ما هدف  إطلاقه؟  إذا كان لدى أوبن إي آي و مايكروسوفت طموحات وخطط لاستخدامات ملموسة لزيادة إنتاجية مستخدميهما، فإن Grok يهدف بشكل أساسي إلى الاستجابة للأشياء المضحكة، دون فلترة أو حدود.

 في الوقت الحالي، يبدو Grok وكأنه مزحة ابتكرها إيلون ماسك ليضحك. وربما سيكون بمنزلة أساس للعمل المستقبلي لـ xAI، التي قد تنجح يومًا ما في التنافس مع OpenAI وغوغل في عالم الذكاء الاصطناعي بالرغم من دعوة إيلون ماسك للحذر من تطور الذكاء الاصطناعي.

نايلة الصليبي

يمكن الاستماع لـ “بودكاست ديجيتال توك ”على مختلف منصات البودكاست. الرابط
للبودكاست على منصة أبل

غوغل تتحدى تحالف مايكروسوفت وأوبن إي آي وتطلق النسخة الأولى من نموذج اللغة العريضة Gemini للذكاء الاصطناعي التوليدي

أطلقت شركة “غوغل” يوم الأربعاء  6 ديسمبر 2023  النسخة الأولى لنموذج اللغة العريضة LLM  متعدد الوسائط Gemini، الذي تصفه “غوغل” بطراز الذكاء الاصطناعي “الأكبر والأكثر قدرة”، الذي سيدمج في نموذج الذكاء الاصطناعي للمحادثة باللغة الطبيعية  Google Bard.

نشرت في: 07/12/2023

-
– © غوغل – نايلة الصليبي

غوغل تعود إلى سباق الذكاء الاصطناعي التوليدي وتطلق Gemini

ينطلق من جديد، وبقوة، السباق للسيطرة على سوق الذكاء الاصطناعي التوليدي مع إطلاق غوغل لنموذج اللغة العريضة Large Laguage Model،Gemini، لمنافسة شات جي بي تي بنسخته الرابعة.

نموذج Geminiهو وليد عملية دمج مختبرات البحوث الأساسية في غوغل، Deepmind وBrain، واعتمادًا على نوع المهام، يوفر نموذج اللغة العريضة هذا إداءً يساوي أو أكثر من أداء GPT-4.

دُرِبَ نموذج اللغة العريضة Gemini باستخدام معالجات Tensor Processing Units (TPU) الخاصة بشركة غوغل، التي تقلل من الاعتماد على الرقائق من شركة Nvidia، وهي الشركة الأمريكية المسيطرة على سوق الرقائق وتتحكم بشكل كبير في توفير الرقائق لتدريب نماذج الذكاء الاصطناعي التوليدي والتي تؤثر بشكل كبيرعلى تقدم بحوث وتطوير الشركات والمختبرات في العالم لنماذج الذكاء الاصطناعي التوليدي.

ميزات ومهام نموذج اللغة العريضة Gemini

قدم الرئيس التنفيذي لشركة غوغل سوندار بيشاي وديميس هاسابيس مديرمختبر Google Deepmind خلال مؤتمرهما الصحافي Gemini على أنه من “أقوى نماذج اللغة العريضة   multimodal “أي الذكاء الاصطناعي القادر على تحليل مصادر المعلومات والتعرف إلى أنواع مختلفة من المعلومات وفهمها مثل النص، ورموز البرمجة، والصوت، والصورة، والفيديو في نفس الوقت.

عُرِض خلال المؤتمر الصحفي، مقطع فيديو يُظهِر نموذج Gemini بأنه قادر على التعرف على الأشياء، كأن جسم ما مصنوع من البلاستيك، و يمكنه فهم و لعب Bonneteau بتفوق، وهي لُعْبَة قمار تُعرف بخدعة البطاقات الثلاث، وأيضا يمكن لـGemini فهمَ عرض مسرحي  لدمى الظل، وتحليل ما يحدث في فيديو ما، وإيجاد النقاط المشتركة بين الأشياء.

أحجام مختلفة لمهام مختلفة

يأتي الإصدار الأول من Gemini بثلاثة أحجام:

  • Gemini Ultra للمهام المعقدة للغاية،
  • Gemini Pro، لمجموعة واسعة من المهام،
  • Gemini Nano، التي يمكن استخدامها لمهام محددة مباشرة من الهواتف الذكية التي تعمل بنظام أندرويد. تتيح هذه الميزة لـ Gemini معالجة البيانات التي لن تضطر إلى المرور عبر خوادم غوغل السحابية. وأول هاتف ذكي مزود بنموذج Gemini Nano هو هاتف Pixel 8 Pro

ما سيتيح للمستخدمين تحقيق مهام فائقة كقدرة تطبيق مسجل الصوت على كتابة نسخة مكتوبة من الملاحظات المسجلة (مقابلة، محاضرة، وما إلى ذلك)، وأيضًا القدرة على إنشاء ملخص، دون الاتصال بالإنترنت. وبات بإمكان مطور تطبيقات أندرويد طلب الوصول إلىGemini Nano  

 تقول غوغل إن Gemini Ultra هو أول نموذج للذكاء الاصطناعي “يمكنه التفوق على الخبراء البشريين” في المعرفة ولديه قدرات حل المشكلات عبر 57 موضوعًا، من بينها الرياضيات، الطب، التاريخ، والأخلاق.

كما يمكن لـ Gemini أيضًا فهم وإنشاء الكود أو الرموز في لغات البرمجة مثل بايثون وجافا و++C.

هذا وسيعتمد نموذج الذكاء الاصطناعي للمحادثة باللغة الطبيعية Google Bard على نموذج اللغة العريضة Gemini Pro،  ما يتيح تزويد مستخدمي الإنترنت الناطقين باللغة الإنجليزية بإجابات أكثر ثراءً ودقة في أكثر من 170 دولة وإقليمًا، وتخطط  غوغل للتوسع ودعم لغات  أخرى ومواقع جديدة، اعتبارًا من بداية العام المقبل 2024

الحماية من الاستخدام السيئ أو الهلوسة

توضح غوغل أن مختبراتها تجري حاليًا عمليات تحقق معمقة من سلامة النموذج”. ولحمايته من الاستخدام السيئ أو الهلوسة. قالت غوغل “إنها تضيف الحماية الفائقة لـGemini بسبب القدرات المتعددة الوسائط Multimodal، وتختبر المخاطر المحتملة في أثناء التطوير، بما في ذلك التحيز والمحتوى العنيف والقوالب النمطية السلبية”.

فقد كان من المقرر إطلاق Gemini مع ضجة إعلامية كبيرة في ديسمبر 2023من خلال عدة مؤتمرات صحفية في الولايات المتحدة. ولكن هذه الخطط قُلِصَت عندما وجد خبراء DeepMind وBrain أن أداء نموذج اللغة العريضة LLM Gemini  لم يكن مرضيًا بدرجة كافية خاصة في لغات أخرى غير الإنجليزية. لذا علينا انتظار العام الجديد.

كانت غوغل الرائدة في البحوث الأساسية في مجال الذكاء الاصطناعي وهي ترغب بالبقاء حسب سوندار بيشاي شركة “جريئتا ولكن مسؤولةً” وتجد نفسها اليوم في موقع منافس ضد تحالف Microsoft  –  Open AI  

نايلة الصليبي

يمكن الاستماع لـ “بودكاست ديجيتال توك ”على مختلف منصات البودكاست. الرابط
للبودكاست على منصة أبل

سام التمان يعود لقيادة OpenAI على خلفية صراع حول مخاطر الذكاء الاصطناعي العام!

هل وصلت ملحمة طرد سام التمان، المدير التنفيذي والشريك المؤسس لشركة “أوبن أي آي” إلى خواتيمها بعودته لقيادة مجلس إدارة جديد، بعد التحاقه بشكل خاطف بشركة “مايكروسوفت”. ما هي خلفية هذه البلبلة؟ وهل هي خلافات شخصية أم أبعد من ذلك؟

نشرت في: 22/11/2023 –

سام التمان الرئيس و المدير التنفيذي لشركة OpenAi مطورة نموذج الذكاء الاصطناعي التوليدي باللغة الطبيعية شات جي بي تي على يمين الصورة . مع الشريك المؤسس وعالم الذكاء الاصطناعي الإسرائيلي إيليا سوتسكيفر على يسار الصورة في جامعة تل أبيب . © أ ف ب

ملحمة شغلت السيليكون فالي كمسلسل  تشويق على نتفليكس؟

ذهل عالم التكنولوجيا والسليكون فالي بزلزال يوم الجمعة 17 نوفمبر 2023 مع خبر طرد سام ألتمان من منصبه كالرئيس والمدير التنفيذي لشركة OpenAi.

سام التمان هو من  ضمن الفريق المؤسس لشركة OpenAI، الذي أطلق في نوفمبر 2022 ثورة نماذج الذكاء الاصطناعي التوليدي باللغة الطبيعية مع شات جي بي تي.

أعلن يوم الإثنين 20 نوفمبر 2023 انضمامه لشركة مايكروسوفت مع غريغ بروكمان، رئيس مجلس الإدارة، لبناء فرع مخصص للبحوث المتقدمة في الذكاء الاصطناعي. و إذا شركة OpenAI تعلن يوم الأربعاء 22 نوفمبر 2023 عن عودة الشريك المؤسس سام التمان إلى قيادتها، بعد إعلان إيليا سوتسكيفر، أحد مؤسسي OpenAIعن ندمه بكونه تسبب بطرد التمان، الذي كان يرغب بإجراء تغييرات في تشكيلة مجلس الإدارة المكون فقط من المؤسسين.

كانت قد فشلت المفاوضات الأولى التي قام بها سام التمان بعد طرده ،من ثم، أعلن الانضمام لمايكروسوفت. ثم رضخ مجلس إدارة OpenAi لشروط سام التمان، بعد تخبط، ورؤية غير واضحة لاستمرار الشركة وديمومتها من دون سام التمان. علاوة على ذلك هدد جميع موظفي OpenAI البالغ عددهم 770 موظفًا تقريبًا بالاستقالة إذا لم يعد سام التمان إلى الشركة، ووعدوا بالانضمام إليه في مهمته الجديدة في مايكروسوفت. ما يعني جعل OpenAI كائن بغلاف فارغ لا قيمة له.

تترافق هذه العودة مع تغيير في تشكيلة مجلس الإدارة، الذي صوت يوم الجمعة 17 نوفمبر 2023 على إقالة سام التمان. يعتبر عدد من المراقبين أن ساتيا ناديلا، الرئيس التنفيذي لشركة مايكروسوفت، لعب دورا أساسيا في هذا التحول المذهل. فقد بلغ حجم الاستثمار التراكمي لشركة مايكروسوفت في شركة OpenAi ثلاثة عشر مليار دولار أمريكي لتطوير  إطلاق شات جي بي تي، وتعتبر مايكروسوفت الممول والشريك الأول الاستراتيجي لشركة OpenAI.على خلاف الشركات الربحية لم تكن مايكروسوفت ممثلة في مجلس إدارة OpenAI المرتبط في الواقع بهيكل غير ربحي، وهو غير مسؤول أمام المساهمين. ومن المرجح بعد أن أصبحت شركة OpenAI شركة ربحية أن يُغير هذا الهيكل بسرعة، لتتلاءم إدارة الشركة مع أهدافها للنمو والتطور والاستثمار، حسب قول ساتيا ناديلا “لبناء حوكمة أكثر استقرارًا وكفاءة واستنارة”.

من المرجح أن يتم إصلاح هذه الإدارة بسرعة. ووفقا لبلومبرج، يمكن أن تحصل مايكروسوفت على منصب مراقب في الأقل في مجلس الإدارة الجديد.

ما خلفية قرار الطرد المفاجئ وأسباب هذه البلبلة؟

أعتبر البعض أن الأمر هو بمثابة خلافات شخصية وخلافات داخلية بسبب التنافس بين سام التمان وإيليا سوتسكيفر، وهو شريك مؤسس وعالم ذكاء اصطناعي كان يعمل في شركة DeepMind مع غوغل.

لكن الأمر أعمق وأبعد من ذلك، ما يعكس غموض مشروع شركة OpenAI. فقد وُلدت هذه الأخيرة في عام 2015 كمنظمة غير ربحية. وتتمثل مهمتها في إنشاء “ذكاء اصطناعي عام بطريقة آمنة ومفيدة للبشرية”، من أجل تجنب مخاطر “الذكاء الفائق”، الذي يحذر منه، على سبيل المثال إيلون ماسك، أحد مؤسسي شركة OpenAI،  الذي ترك الشركة عام 2019. ويحذر منه أيضا بعض أعضاء مجلس الإدارة كـ هيلين تونر من مركز الأمن والتكنولوجيا الناشئة، التابع لمركز بحوث في جامعة جورج تاون في واشنطن. بالإضافة إلى إيليا سوتسكيفر، يعتبر هؤلاء أن الذكاء الاصطناعي العام يمكن أن يكون “أكثر خطورة من الطاقة النووية”.

أصبحت OpenAI،تحت قيادة سام ألتمان، شركة ربحية تبلغ قيمتها 90 مليار دولار أمريكي، لكنها لا تزل خاضعة لسيطرة مجلس إدارة غير ربحي. يعتبر إيليا سوتسكيفر، أن سام ألتمان كان يسعى للمضي قدمًا وإطلاق المنتجات بوتيرة سريعة للغاية، في هدف يعتبر تجاريًا. ويتعارض مع سياسة السلامة والأمن الخاصة بـ OpenAI، واتهم  ألتمان بانه “لم يكن صريحا في اتصالاته مع مجلس الإدارة”،

كان إيليا سوتسكيفر، قد أطلق في يوليو 2023 ضمن شركة OpenAi، فريقًا مخصصًا  لمشروع  يطلق عليه اسم Superalignment “الاصطفاف الفائق“. الذي حسب موقع OpenAI يعنى بالبحث عن الطرق الممكنة لجعل “الذكاء الفائق، الأكثر ذكاءً منا، يحترم النيات البشرية”. وحسب موقع بلومبرج فقد خفضت موارد الحوسبة لفريق عمل إيليا سوتسكيفر، الذي كان قد خصص لفريقه   20% من موارد الحوسبة الثمينة لشركة OpenAI، ما سبب بخلق توتر بين سوتسكيفر وألتمان وبروكمان. وبدأ حينها بحشد أعضاء مجلس الإدارة ضد ألتمان.

يعكس هذا الصدام هشاشة مجلس إدارة البنية غير الربحية لشركة OpenAI، والأهم يوضح هذا الخلاف صراع تياران في تكنولوجيا الذكاء الاصطناعي، الأول الذي يعتبر أن “الذكاء الفائق يثير القلق وسيؤدي إلى نهاية البشرية، وتيار ثان يعتبر أن الذكاء الاصطناعي هي تقنية يمكن السيطرة عليها وإدارتها.   

من وجهة نظر سام ألتمان، كان من الضروري جمع المزيد من الأموال وإيجاد مصادر دخل إضافية للتقدم في تطوير الذكاء الاصطناعي. لكن بعض أعضاء مجلس الإدارة، هم متأثرون بحركة فلسفية زائفة تسعى إلى التبرع بالمال لتجنب المخاطر الوجودية التي تعرف بالـ  effective altruism  التي تشكك في  أمن تكنولوجيا الذكاء الاصطناعي، و بالتحديد هيلين تونر من مركز الأمن والتكنولوجيا الناشئة و أيضا رائدة الأعمال Tasha McCauley تاشا ماكولي  وآخرون في مجلس الإدارة  يرون أن  خطط ألتمان ، تشكل خطرا ، في حال تطويرالذكاء الاصطناعي المتقدم. يتصور هؤلاء أن  نظامًا قويا للذكاء الاصطناعي  يمكن أن يستخدم من قِبَل جماعة إرهابية، لصنع سلاح بيولوجي. أو يمكن  أن يتحول  الذكاء الاصطناعي تلقائيًا إلى نظام سيئ مع تصرفات سيئة، ويسيطر على أنظمة الأسلحة ويحاول القضاء على الحضارة الإنسانية.

طبعا هذه السيناريوهات لا تأخذ على محمل الجَدّ، خاصة، أن باحثين كثر في تكنولوجيا الذكاء الاصطناعي، كالفرنسي يان لوكون والباحثة في أخلاقيات الذكاء الاصطناعيتيمنيت غيبرو  وأيضا سام  ألتمان، يعتبرون أن هذه المخاوف يمكن إدارتها وأن الفوائد المحتملة من إتاحة الذكاء الاصطناعي على نطاق واسع تفوق المخاطر.

خطاب مزدوج

كل هذا يأتي أيضا من خطاب سام التمان المزدوج، فهو كثيرًا ما دعا إلى تأمين وتنظيم الذكاء الاصطناعي، ومن جهة أخرى، يرى أن مسودة قانون الذكاء الاصطناعي الأوروبي مقيدة للغاية. فكيف يمكن أن يدعو لشيء ولنقيضه …

يبقى أن المنافسة والاستثمار الهائل في تطوير الذكاء الاصطناعي ليصل إلى الذكاء الاصطناعي الفائق أو العام، بما فيه الاعتقاد بازدهار أو فناء البشرية، مفتوح على كل الاحتمالات. إن لم تتحرك الحكومات والمنظمات الدولية لتأطيره ولجم  جشع شركات التكنولوجيا العملاقة.

 أخيرًا تذكير بقول فلاديمير بوتين عام 2017 : “الأمة التي تقود الذكاء الاصطناعي ستحكم العالم”

نايلة الصليبي

يمكن الاستماع لـ “بودكاست ديجيتال توك ”على مختلف منصات البودكاست. الرابط
للبودكاست على منصة أبل

شات جي بي تي وزملائه من أدوات الذكاء الاصطناعي التوليدي يجعلون البشري أكثر غباءً!

حذيرات من خبراء الذكاء الاصطناعي والعلوم المعرفية من إمكانية  إضعاف الذكاء الاصطناعي التوليدي للتطور السليم للتفكير النقدي وللإبداع وللمعرفة لدى البشري.خاصة مع تطور هذا الأدوات وبروز نوع جديد من الذكاء الاصطناعي كـ “الروبوتات العاطفية”؟ 

صورة مولدة بالذكاء الاصطناعي التوليدي © stable diffusion

شات جي بي تي وزملائه من أدوات الذكاء الاصطناعي التوليدي يجعلون البشري أكثرغباءً!

اجتاح شات جي بي تي وزملائه من نماذج الذكاء الاصطناعي التوليدي باللغة الطبيعية حياة البشري، بات هذا الأخير يعتمد على قدرات هذه الآلات في الإجابة عن أي سؤال بسيط.

كما تتيح هذه النماذج للطلاب، بسهولة، إمكانية كتابة مقال أو ترجمة نص، أو إعادة صياغة نص أو تلخيصه، و أيضا تتيح إنشاء و تطوير موقع ويب دون أي معرفة بالترميز و توليد الصور وغيرها من الإمكانات المفتوحة على كل الاحتمالات.

لكن هذه الإمكانات التي يتيحها الذكاء الاصطناعي التوليدي للبشري وبالتحديد للطلاب، تطرح تساؤلات حول إمكانية هذه الأدوات  بإضعاف التطور السليم للتفكير النقدي والإبداع والمعرفة لدى البشري.

 إضعاف التطور السليم للتفكير النقدي والإبداع والمعرفة لدى البشري!  

منذ إطلاق نموذج الذكاء الاصطناعي التوليدي باللغة الطبيعية شات جي بي تي، (كلمة لغة طبيعية تعني أن الأداة بإمكانها فهم  اللغة الطبيعية البشرية  دون ترميز،  أي إن المستخدم يتواصل مع الآلة بلغته الطبيعية)،  و انتشار استخدام هذه الأدوات من قبل الطلاب  في المدارس و الجامعات، بدأ عدد كبير من خبراء علوم الإدراك المعرفي والذكاء الاصطناعي  بالتحذير من خطر انخفاض قدرات التعلم. بدأ من التوقف عن تعلم الكتابة، والعد، والتوقف عن تعلم المنطق، والاستدلال، واللغات، بحيث سيصبح البشري كسولًا ولن يعد بقدرته مساءلة ما تقدمه الآلة. ويخاطر باتباع اقتراحات شات جي بي تي، بارد أو كلود2، دون محاولة التفكير والمساءلة، وهذا يمكن أن يسبب بالتدهور المعرفي.

هذا بالتحديد ما عادت لتحذر منه لورانس دوفيلر، أستاذة الذكاء الاصطناعي في جامعة باريس السوربون والباحثة في مختبر علوم الكمبيوتر للميكانيك وعلوم الهندسة  في باريس، “من أن أدوات الذكاء الاصطناعي التوليدي  ليست حلاً جيدًا لتطوير التفكير النقدي والإبداع والمعرفة بين الطلاب، ولا سيما من هم  الأصغر سنًا”.

 تشدد  لورانس دوفيلر على الحاجة الملحة لتنظيم الذكاء الاصطناعي التوليدي قبل السماح للأطفال باستخدامه في المدرسة؛من خلال جعل مثلا، شات جي بي تي مفتوح المصدر وإضفاء الطابع الديمقراطي عليه.

 تعتبر لورانس دوفيلر أن سام ألتمان، الرئيس التنفيذي لشركة OpenAI، قام بعملية سطو واسعة النطاق في هذا المجال، وبالرغم من ذلك، فإن شات جي بي تي و غيره من الأدوات يرتكبون الأخطاء، و تسأل هل سيتمكن البشري من اكتشافها، في حال عدم إمكانه كشف المزالق التي تخفيها هذه الآلات؛ فهي تعتبر علبة سوداء غير شفافة  لا نعرف كيف تعمل؟

توضح لورانس دوفيلر أن “الأدوات كـ شات جي بي تي يمكن أن توفر “تعلمًا مخصصًا وشخصيًا بناءً على احتياجات كل مستخدم، لكن بشرط أن يتمكن أي مستخدم من التحكم  بصحة ما تقدمه هذه الأدوات .”

وتضيف الذكاء الاصطناعي التوليدي “ليس حلاً جيدًا لتطوير أي حس نقدي، ولا يعزز بأي حال من الأحوال الإبداع أو حتى التعطش للمعرفة بين الشباب. ويأتي الخطر، من أن نتحول إلى مجرد “مستهلكين” لأنظمة الذكاء الاصطناعي التوليدي. ما قد يؤدي بسرعة إلى انخفاض قدرات التعلم. أي بمعنى أخر، فإن الاستخدام السيئ المستمر للذكاء الاصطناعي يمكن أن يجعل البشر أكثر غباء أو أقل ذكاء مما هم عليه”.

ما الحل كي لا يصبح البشري أكثر غباء مع أدوات الذكاء الاصطناعي التوليدي؟

تنصح الباحثة لورانس دوفيلر، لتجنب هذا التدهور، بضرورة  العمل على “دعم وتدريب وتعلم الأدوات التي يدعمها الذكاء الاصطناعي للطلاب و الأساتذة و أيضا للأهل” لمواكبة عمل أطفالهم و تعريفهم بالأدوات الرقمية الجديدة  . كما تدعو لضرورة التعريف بالانعكاسات الأخلاقية التي تثيرها هذه الأدوات والضمانات التي من المحتمل وضعها لتنظيم استخدامها والسيطرة على استخدامها. خاصة وأن تقنيات الذكاء الاصطناعي التوليدي تتطور بشكل كبير ومن المحتمل ظهور قريبا نوع جديد من أدوات الذكاء الاصطناعي التوليدي “كـ “الروبوتات العاطفية“، التي ستكون قادرة على التقاط مشاعرنا الجسدية بفضل تحليل وجوهنا وتفسير إيماءاتنا ووضعياتنا والتصرف وفقًا لذلك.”

تشرح لورانس دوفيلر أنهمن قدرات “الروبوتات العاطفية” اكتشاف مخاوفنا وقلقنا وحزننا، وهي مبرمجة لمساعدتنا وتهدئتنا. ومن ناحية التعليم، باستطاعة هذه الآلات دعم الطالب الذي يواجه صعوبة، لمساعدته في التغلب على عقبة أو حل مشكلة”. لذا فهي تحذر من ردة فعل عكسية لاستخدامات هذه “الروبوتات العاطفية”، “كالاعتماد العاطفي، والعزلة، وفقدان الحرية، وتضخيم الصور النمطية، والمخاطر الحقيقية للتلاعب بالمشاعر و هنا يصبح ضروريا  وضع أطر قانونية وأخلاقية  في قلب تشغيل أنظمة الذكاء الاصطناعي  هذه و بالتالي الرقابة على استخدامها”.

أي باختصار ووفقا لمختلف الخبراء، يمكن أن يسبب الذكاء الاصطناعي التدهور المعرفي و قد تؤدي أدوات مثل شات جي بي تي إلى انخفاض قدرات التعلم أي “أن يصبح البشري أقل ذكاءً”. فعلينا الحذر.

نايلة الصليبي

يمكن الاستماع لـ “بودكاست ديجيتال توك ”على مختلف منصات البودكاست. الرابط
للبودكاست على منصة أبل

شات جي بي تي : ميزات جديدة تعتبر ثورة في استخدام الذكاء الاصطناعي التوليدي

نشرت في: 08/11/2023

أبرز إعلانات المؤتمر الأول للمطورين في تقنيات الذكاء الاصطناعي التوليدي DevDay، الذي عقدته يوم الإثنين 6 نوفمبر 2023 شركة OpenAI لمطوري الذكاء الاصطناعي التوليدي،.هو أول حدث من نوعه في عالم الذكاء الاصطناعي التوليدي.

ميزات جديدة يمكن اعتبارها ثورة جديدة في استخدام الذكاء الاصطناعي التوليدي

انعقد  يوم الإثنين 6 نوفمبر حدث هو الأول من نوعه في العالم، DevDay حيث خصصت شركة OpenAI المؤتمر الأول للمطورين في تقنيات الذكاء الاصطناعي التوليدي، لم تعلن OpenAI  فيه عن نسخة جديدة من نموذج الذكاء الاصطناعي التوليدي باللغة الطبيعية   GPT-5  بل عن ميزات ستغير أسلوب التعامل مع هذه النماذج.

يمكن تلخيص مجموعة الإعلانات بميزات ثلاث: 

نموذج GPT-4 أكثر كفاءة، إتاحة إنشاء نموذج مخصص، وإطلاق متجر GPT Store.

 GPT-4 Turbo أكثر كفاءة

 أولى هذه الميزات تحديث نموذج GPT-4 فقد تطور نموذج GPT-4، المخصص لمشتركي ChatGPT Plus، ليصبح GPT-4 Turbo. نموذج محدث، أكثر كفاءة.

ستتوفر قريبًا نسختان منه: واحدة مخصصة لتحليل النص، والأخرى لتحليل النص والصور.

كما سيتمكن قريبًا GPT-4 Turbo، أن يأخذ في الاعتبار سياقًا يبلغ حوالي 100000 كلمة، أي ما يوازي 128000 رمزا، ما يتيح إعطاء إجابات أكثر دقة.

محدودية المعرفة في ChatGPT من حيث الوقت، تحد من فعالية النموذج مع بيانات قديمة، والطريقة الوحيدة للالتفاف على هذا الحد للحصول على معلومات آنية، هي استخدام ميزة برنامج التصفح بينغ أو دفع اشتراك ChatGPT Plus.

في هذا الإطار أعلن سام ألتمان، الرئيس التنفيذي لـ  OpenAI، خلال مؤتمر Dev Day، عن مواعيد نهائية جديدة للمعرفة أو بيانات التدريب؛ على سبيل المثال بالنسبة لـ GPT-3.5، يتغير التاريخ من سبتمبر 2021 إلى يناير 2022.وبالنسبة لـ GPT-4 Turbo، أصبح التاريخ الجديد لمحدودية البيانات أبريل 2023بدلا من سبتمبر 2021.

 إنشاء نموذج  GPTs مخصص!

كثير من الفضوليين الذين لديهم خبرة بسيطة في البرمجة جربوا نصوصا برمجية مثل AutoGPT، هو على عكس الأنظمة التفاعلية مثل ChatGPT، التي تتطلب أوامر يدوية لكل مهمة، فإن AutoGPT يحدد لنفسه أهدافًا جديدة، دون الحاجة إلى تدخل بشري. فهو قادر على تنفيذ الأوامر prompts لتحقيق هدف ما، عن طريق إنشاء ومراجعة الأوامر الخاصة به بشكل متكرر بناءً على الاستجابات والإجابات المستلمة. استلهمت OpenIA هذه الفكرة، بالسماح للمستخدم بإنشاء نموذج GPTs خاص به. على سبيل المثال، إتاحة إنشاء وكيل GPTs لكل مهمة متكررة في الحياة اليومية: المحاسبة، والبرمجة، وتنسيق النص، وغير ذلك من المهام المتكررة. كما يمكن للمطورين ربط وكلاء GPTs بقواعد بيانات خارجية أو حتى بالبريد الإلكتروني لتمكين التفاعلات الآلية الجديدة.

 متجر GPT Store


مكتبة وكلاء GPTs © OpenAI

مع إمكانية إتاحة إنشاء وكيل مخصص من قبل المستخدمين، ستتيح OpenAi  النشر عبر الإنترنت كل وكيل GPT مخصص   للاستفادة منه من قبل الآخرين في متجر GPT Store.الذي من المقرر إطلاقه أواخر شهر نوفمبر.

 سيكون المتجر متاحًا في البداية للمبرمجين أو المطورين الذين تم “التحقق منهم”. وفي المستقبل يمكن إتاحة نشر وكلاء الذكاء الاصطناعي  الـ GPTs Agent المطورة من أي مبرمج أومطور. ويشير هنا سام ألتمان إلى أن المطورين الذين ينشرون أفضل وكيل GPTs يمكن لشركة OpenAi ان تدفع لهم بدلا ماديا مكافأة لعملهم.

أخيرًا بالإضافة إلى هذه الميزات الثلاث الرئيسية الجديدة، ستتوفر واجهة برمجة التطبيقات (API) جديدة تتيح للمطورين إنشاء مساعدين آليين بسهولة أكبر.

وبالنسبة لواجهة برمجة تطبيقات DALL-E المخصصة للصور رقيت للإصدار الثالث.

– © openai.com

كما وضعت قيد الاستخدام واجهة برمجة تطبيقات جديدة لتركيب الكلام، تسمى Audio API، بستة أصوات: Alloy ،Echo ،Fable ،Onyx ،Nova Shimmer.

معظم هذه الميزات باتت متوفرة لمشتركي ChatGPT Plus.

موضوع متصل :

للتعرف على شات جي بي تي  لقاء مع عالم البيانات و خبير الذكاء الاصطناعي الدكتور أحمد العم

نايلة الصليبي

يمكن الاستماع لـ “بودكاست ديجيتال توك ”على مختلف منصات البودكاست. الرابط
للبودكاست على منصة أبل

لينكد إن أدوات تدريب وتوظيف جديدة تعتمد على الذكاء الاصطناعي التوليدي

إعلان منصة  لينكد إن  عن تطوير أدوات و ميزات جديدة مدعومة بالذكاء الاصطناعي التوليدي لتعزيز فعالية استخدام المنصة للتدريب وللتوظيف و التسويق.

نشرت في: 05/10/2023

لينكد إن أدوات تدريب وتوظيف جديدة تعتمد على الذكاء الاصطناعي التوليدي

منصة لينكدإن لا تحظ بشعبية على غرار فيسبوك وإنستغرام ومنصة إكس، غير أنها منصة مهنية ريادية أنشئت عام 2002 في Mountain View   أي منذ 21عاما. أعوام تعتبر دهرا في عالم التكنولوجيا. و هي مملوكة من شركة مايكروسوفت.

فقد استثمرت مايكروسوفت مليارات الدولارات في شركة OpenAI، مطورة نموذج الذكاء الاصطناعي التوليدي للمحادثة باللغة الطبيعية ChatGPT، كما نشرت مايكروسوفت أنظمة الذكاء الاصطناعي في مختلف أدواتها في بيئة Copilot واليوم تهتم بمنصتها الاجتماعية.

تعمل لينكدإن على تطوير أدوات جديدة للذكاء الاصطناعي للتعلم والتوظيف والتسويق والمبيعات، مدعومة بـ OpenAI الشركة المطورة لنموذج الذكاء الاصطناعي للمحادثة باللغة الطبيعية شات جي بي تي. في إطار تطوير أدوات الذكاء الاصطناعي  في المنصة و أيضا للحفاظ على تفاعل ما يقرب من مليار مستخدم على منصتها وكسب المزيد من المستخدمين.

ما هي هذه الأدوات وما هي وظائفها؟

 منصة لينكدإن هي منصة تتوجه بالدرجة الأولى للمحترفين وللباحثين عن عمل و للشركات والمؤسسات التي تبحث عن موظفين متخصصين.من أبرز الأدوات التي ستضاف لوظائف لينكدإن  حسب البيان الصحفي :

  • Recruiter 2024

أداة  توظيف جديدة مدعومة تستخدم  الذكاء الاصطناعي التوليدي لمساعدة متخصصي التوظيف في التوصل إلى نظام بحث قو ي لإظهار قوائم المرشحين المناسبين لمعيار الوظيفة المطلوبة.

وعلى غرار ما يقوم شات جي بي تي، سيتمكن من لديهم فرص عمل للتوظيف، بواسطة كتابة المعايير الخاصة للوظيفة المطلوبة  باستخدام اللغة الطبيعية،  تنشئ المنصة مشروعًا يتضمن مختلف المعلومات والاختيار المسبق لقائمة المرشحين الذين يستوفون هذه المعايير. بالإضافة لميزات بحث أخرى مع توصيات حول كيفية تحسين البحث.

  • مدرب الذكاء الاصطناعي

هذا و أضافت لينكدإن الذكاء الاصطناعي لأداة linked in Learning على شكل “مدرب التعلم: ، Learning Coach  يتيح للمحترفين المشاركة في التدريب المدعوم بالذكاء الاصطناعي من طريق التفاعل مع برنامج المحادثة الآلي  شات بوت الذي يمكنه توفي التوجيه في الوقت الفعلي والمحتوى المخصص للمحترفين.

و تعزيز مهاراتهم الإدارية والقيادية بواسطة طرح أسئلة مثل “كيف يمكنني تفويض المهام والمسؤوليات بشكل فعال؟ يتجاوب  برنامج المحادثة أو الـشات بوت مع الأسئلة  للوصول لفهم وضع المستخدم بشكل أفضل، ثم يقدم نصائح وأمثلة وتعليقات مخصصة.

كما تساعد تجربة التدريب الخاصة ببرنامج المحادثة الآلية الشات بوت المستخدمين على الاتصال بالدورات التدريبية والمواد الموجودة على لينكدإن التي تناسبهم بشكل أفضل.

  • أداة  ذكية للمسوقين

أخيرًا، أعلنت لينكدإن عن أداة للمسوقين تسمى “Accelerate for Campaign Manager”. ستساعد المسوقين على الحصول على توصيات شاملة لحملاتهم في أقل من خمس دقائق، لمساعد ة الأشخاص على تشغيل الحملات على لينكدإن بسهولة أكبر لتجاوز هذا العبء الثقيل. لكن أحد عوائق الأداة Accelerate أنها تقتصر على تشغيل الحملات والبيانات داخل حصن لينكد إن المنيع. ونظرا لأن الحملات التسويقية تمتد عادة عبر منصات  مختلفة وجماهير متعددة، فقد يجد المستخدمون أن تأثير الأداة الجديدة محدود.

تتوفر هذه الأدوات حاليًا  بشكل تجريبي في الولايات المتحدة

نايلة الصليبي

يمكن الاستماع لـ “بودكاست ديجيتال توك ”على مختلف منصات البودكاست. الرابط
للبودكاست على منصة أبل

غوغل تستعيد المبادرة مع  إضافات لنموذجها للذكاء الاصطناعي التوليدي للمحادثة  باللغة الطبيعية “بارد”

نشرت في: 21/09/2023

بعد ضربة شركة OpenAi وإعصار “شات جي بي تي،  “غوغل” تحاول استعادة الريادة في عالم الذكاء الاصطناعي. وضمن السباق المحموم بين شركات التكنولوجيا للسيطرة على سوق الذكاء الاصطناعي التوليدي للمحادثة باللغة الطبيعية، يبدو أن غوغل تستعيد المبادرة، حيث بات بقدرة نموذج الذكاء الاصطناعي التوليدي باللغة الطبيعية  “بارد”  من غوغل  بواسطة   مجموعة من إضافات  Bard Extensions“بارد إكستنشنز”  تتيح لبارد الاتصال بالخدمات الأخرى التي توفرها غوغل  مثل البريد الإلكتروني جيميل  ومنصة يوتيوب والخرائط Maps.

على سبيل المثال  إذا كان المستخدم يخطط لرحلة إلى طوكيو ، يمكنه أن يطلب من”بارد”  جمع التواريخ التي تناسب الجميع في البريد الإلكتروني جيميل، والبحث عن رحلات طيران وفنادق، والتحقق من المسافة بين الوجهة والمطار في خرائط غوغل، ومشاهدة مقاطع فيديو من يوتيوب عن الأماكن التي يمكن زيارتها هناك”، و”كل ذلك يمكن أن يتمّ في المحادثة نفسها”.

هذا، و أشار بيان غوغل إلى قدرات  Bard Extensions في مساعدة “بارد” على استخراج بيانات من “غوغل دوكس” و”غوغل درايف”، ومن  بينها مستندات بصيغة “بي دي إف”PDF.

كذلك  وضعت غوغل خط أمان  إضافي لبارد بواسطة زر “Google It”. يتيح  للمستخدم مقارنة النتائج التي يوفرها “بارد” بتلك الموجودة عبر محرك البحث “غوغل” عن الموضوع نفسه، وإبراز أي اختلاف بين النتيجتين إن وُجد. وذلك في محاولة لتوثيق نتائج“بارد”والحد من أخطاء الهلوسة المعروفة في نماذج الذكاء الاصطناعي التوليدي.  إضافات “بارد” متوفرة حاليا للمحتوى باللغة الإنجليزية.

نايلة الصليبي

يمكن الاستماع لـ “بودكاست ديجيتال توك ”على مختلف منصات البودكاست. الرابط
للبودكاست على منصة أبل