مدونة التقنيات الحديثة وعالم الانترنت و المعلوماتية و الإعلام الجديد و التحول الرقمي؛ تنقل آخرالمستجدات التقنية وتقود القارئ في دهاليز شبكة الإنترنت وكيفية فهم واستخدام مختلف أدواتها مع نايلة الصليبي
ما يميز ChatGPT هو أنه أول نموذج ذكاء اصطناعي توليدي للمحادثة باللغة الطبيعية متاح على نطاق واسع؛ إذ تتيح شركة OpenAI للمستخدمين استكشاف ChatGPT واستخداماته الواسعة لتبسيط المهام اليومية.
بتنا نرى اليوم كيف يمكنه إنشاء نص مقنع للغاية وطبيعي في أي سياق تقريبًا. وكيف يمكنه توليد “الأكواد” والشيفرات البرمجية. مما بات يثير قلق خبراء الأمن الرقمي إذ من خلاله تصبح عمليات الاحتيال عبر الإنترنت أكثر خطورة وسهلة التنفيذ.
علما أنه في حال الطلب من ChatGPT أن يكتب رسالة بريد إلكتروني للتصيد الاحتيالي، أو برمجية خبيثة سيرفض واصفًا بان هذا الأمر يعتبر نشاطا ضارا وغير قانونيا، مضيفًا أنه كنموذج لغة يستند إلى الذكاء الاصطناعي في عمله قد بُرمج على تجنب الانخراط في أنشطة قد تضر الأفراد.
لكن في تقرير خاص نشر في بداية شهر مارس 2023، حذر خبراءNorton Cyber Safety Pulse من بعض الأساليب التي يمكن للقراصنة استخدام ChatGPT لجعل عمليات الاحتيال عبر الإنترنت أكثر فعالية: كإنشاء محتوى مزيف deepfake، والتصيد الاحتيالي phishing على نطاق واسع، وإنشاء برامج خبيثة بشكل أسرع من خلال التحايل على النظام.
يضيف خبراء الأمن في شركة نورتون أن الاستخدام المفتوح لـChatGPT سيجعل قدرة إنتاج “أخبار مزيفة عالية الجودة أو معلومات مضللة على نطاق واسع و بلغات مختلفة” سهلة للغاية.
كما حذروا من إمكانية استخدام ChatGPT لشن “حملات التحرش” و “التنمر” على المنصات الاجتماعية لإسكات أو تخويف الناس، ويمكن أن يكون لهذا الأمر عواقب مخيفة.
كما حث تقرير Norton Cyber Safety Pulse مجتمع الأمن السيبراني العمل على استجابات سريعة وفعالة لمواجهة هذه التهديدات الجديدة.
نايلة الصليبي
يمكن الاستماع لـ “بودكاست ديجيتال توك ”على مختلف منصات البودكاست. الرابط للبودكاست على منصة أبل
فاجأ دافيد غيتا الـ DJ الفرنسي العالمي جمهوره خلال حفل موسيقي، باستخدام صوت مغني الراب الأمريكي الشهير Eminem في إحدى المقطوعات الموسيقية الراقصة دون مشاركة هذا الأخير.السر في استخدام دافيد غيتا لموقعين لأدوات الذكاء الاصطناعي.
الموقع الأول هو خوارزمية لتركيب النص، تشبه إلى حد ما نموذج الذكاء الاصطناعي التوليدي للمحادثة باللغة الطبيعية ChatGPT يتيح بتوليد كلمات عن طريق تقليد أسلوب كتابة Eminem، استخدمها دافيد غيتا لتوليد جملتين بناءً على أسلوب مغني الراب Eminem بموضوع الـ Future Rave. يشير هذا المصطلح إلى نوع من الموسيقى الإلكترونية أطلقه دافيد غيتا نهاية عام 2010 مع الـDJ الدنماركي .Morten Breum
ثم أستخدم موقع آخر لتوليد مقتطف صوتي من هاتين الجملتين، بصوت Eminem مؤلف Lose Yourself ، Stan ، Without Me الذي يمكن التعرف عليه بوضوح.
من المستحيل على الجمهور معرفة أن هذا الصوت كان مزيفًا بالتزييف العميق DeepFake
بين الذكاء الاصطناعي والفن، فراغ قانوني كبير
ربما دافيد غيتا بواسطة هذه التجربة، لا يحمل أي نية سيئة باستخدام صوت مغني الراب Eminem دون مشاركته؛ لكن يبدو أن هذا الأمر يطرح أسئلة قانونية؟ من خلال هذه التجربة سلط الـDJ دافيد غيتا الضوء على الفراغ القانوني الموجود حول توليد وإنشاء النصوص عبر الذكاء الاصطناعي.
أذهل دافيد غيتا جمهوره بجعل Eminem يغني في مقطعه الموسيقي باستخدام الذكاء الاصطناعي، ودون أن يتدخل هذا الأخير. ، لكن ليس من المؤكد أن مغني الراب الأمريكي يقدر هذه المبادرة خاصة وأنه كان من المستحيل، كما ذكرت، معرفة أن هذا الصوت كان مزيفًا DeepFake التزييف العميق. لذلك كان بإمكانهم تفسير هذا التزييف الصوتي العميق على أنه نوع من موافقة و مشاركة من Eminem للعلامة التجارية Future Rave الخاصة بـ غيتا. هنا يبرز الغموض حول حدود الأخلاق الفنية وحقوق التأليف والنشر.
أوضح دافيد غيتا أنه لا ينوي تسويق هذا التسجيل. لكن استخدام صوت وصورة فنان دون موافقته يثير العديد من التساؤلات القانونية. صوت فنان يعتبر علامة تجارية و استخدامه بهدف الترويج لمقطع ـ Futur Rave دون موافقة Eminem يعتبرمخالفة قانونية تشير إليه المادة L122-4 من قانون الملكية الفكرية في فرنسا، أن “أي تمثيل أو استنساخ كليًا أو جزئيًا دون موافقة المؤلف أو خلفائه في الملكية أو المتنازل لهم غير قانوني.”.
هنا من الناحية الفنية، لا تخضع تجربة دافيد غيتا لهذه المادة القانونية، حيث إنها ليست استنساخًا لتسجيل موجود مسبقًا. ولكن بمجرد تضمين الذكاء الاصطناعي في المعادلة، يصبح كل شيء أكثر ضبابية.ونصل بسرعة إلى منطقة قانونية رمادية حقيقية.
استخدام الذكاء الاصطناعي لا يخضع حتى اليوم للتنظيم الواضح للقانون عندما يتعلق الأمر بالأخلاقيات الفنية وحقوق التأليف والنشر.
تدريب الذكاء الاصطناعي و حقوق النشر المهدورة
تكمن المشكلة هنا في أن الشبكات العصبية أو العصبونية الاصطناعية التي تعمل كأساس لهذه الأدوات يجب بالضرورة أن يتم تدريبها مسبقًا. وفي هذه الحالة، باستخدام البيانات الموجودة من تسجيلات صوتية للفنان ـ Eminem الحقيقي. وعادة ما تكون محمية منطقيًا بموجب حقوق النشر.
هذا هو القلق الذي أثير عدة مرات من قبل وتطرقت له سابقا من ناحية أخلاقية الذكاء الاصطناعي فعلى سبيل المثال خوارزميات إنشاء الصور، مثل DALL-E أو Midjourney. و غيرها من الأدوات التي يتم تدريبها باستخدام الصور المتوفرة على الويب، غالبًا دون مراعاة حقوق النشر. قد يجد أصحاب الحقوق صعوبة في الدفاع عن أنفسهم في السيناريوهات الأكثر إشكالية التي يمكن أن تظهر بسرعة كبيرة.
يبقى الآن على المشرعين معالجة هذه القضية بجدية من أجل تنظيم هذه الممارسة وحماية الفنانين الذين ربما لا يرغبون في رؤية أعمالهم وأصواتهم تفلت منهم لمصلحة خوارزميات الذكاء الاصطناعي و هنا أيضا يطرح سؤال حول الملكية الفكرية عند إنشاء نموذج الذكاء الاصطناعي التوليدي للمحادثة باللغة الطبيعية ChatGPTنصوصا أو أكواد إلى من تعود حقوق الملكية الفكرية مادام أنه لا تتوفر روابط لمواقع وأسماء كما هي الحال في محركات البحث …. و هذا موضوع آخر.
هل أعلنت حرب الذكاء الاصطناعي بين غوغل ومايكروسوفت وخلفهم بالمرصاد مختبر شركة ميتا!
انشغل الإعلام والمهتمين بالتكنولوجيا بنموذج الذكاء الاصطناعي التوليدي للمحادثة باللغة الطبيعية ChatGPT، وهلع بعضهم من تفوق الذكاء الاصطناعي على الذكاء البشري حيث أعتبر إيلون ماسك أن هذا النموذج هو “خطر على مستقبل البشرية” و أن هنالك “خطر كبير من تدريب الذكاء الاصطناعي على الكذب“.
علما أن إيلون ماسك كان من بين مؤسسي شركة OpenAI مع سام التمان و Peter Thielو ريد هوفمان أحد مؤسسي منصة لينكدإن، بهدف إنشاء “مختبر أخلاقي للذكاء الاصطناعي”؛ لكن منذ سنوات لم يعد إيلون ماسك مهتما بهذا المختبر، الذي استثمرت فيه مايكروسوفت عشرة مليارات دولار ووضعت قدراتها الحسابية والحوسبة السحابية في خدمة شركة OpenAI لتطوير النموذج التوليدي للمحادثة باللغة الطبيعية GPT و غيرها من التطبيقات كـ DALL-E لتوليد الصور .و بناء ChatGPTعلى نموذج GPT.
كثيرون أيضا اعتبروا أن هذا النوع من نماذج الذكاء الاصطناعي ستقضي على الكثير من المهن مستقبلا، ومنها مهنتنا الصحافة! كذلك تنبأ كثيرون بنهاية شركة غوغل ومحرك بحثها المسيطر، وهو قلب النموذج الاقتصادي لشركة الفابيت الشركة الام لغوغل؛ متناسين قدرات الأبحاث والاستثمار لهذه الشركة العملاقة التي أطلقت رمز الطوارئ الأحمر للمطورين في الشركة.
مايكروسوفت تعلن الحرب على غوغل!
أعلن الرئيس التنفيذي لشركة مايكروسوفت، ساتيا ناديلا ” عن بدء السباق،”مايكروسوفت ستتحرك بسرعة” و قد بدأت بدمج نموذج ChatGPT و DALL-E في حزمتها المكتبية مايكروسوفتأوفيس وأصدرت مايكروسوفتإصدارا جديدا من محرك بحثها Bing و في برنامج تصفح الويب إيدج مدعوما بنموذج الذكاء الاصطناعي التوليدي للمحادثة باللغة الطبيعية ChatGPT يعرض نتائج البحث التقليدية على الجانب الأيسر من النافذة مع توفير السياق والتعليقات التوضيحية المدعومة بالذكاء الاصطناعي على الجانب الأيمن. تتصور مايكروسوفت هذا التخطيط جنبًا إلى جنب كطريقة للتحقق من نتائج الذكاء الاصطناعي، مما يسمح لمصدري المعلومات بالتكامل.
سارع Sundar Pichai الرئيس والمدير التنفيذي لألفابيت Alphabet والمديرالعام لغوغل بالإعلان عن إطلاق نسخة تجريبية من نموذج الذكاء الاصطناعي Bard المنافس لـ ChatGPT. وأيضا إطلاق أسلوب جديد لمحرك البحث غوغل بالإجابة عن أسئلة المستخدمين من دون روابط وباستخدام الذكاء الاصطناعي.
علما أن ألفابيت Alphabet خسرت أكثر من 100 مليار دولار من قيمتها السوقية الأربعاء 9 فبراير 2023بعد أن فشل نموذج الذكاء الاصطناعي التوليدي للمحادثة باللغة الطبيعية Bard في الإجابة بطريقة صحيحة عن الأسئلة الموجهة إليه خلال الإعلان الترويجي له.
ما هدف هذا السباق المحموم؟
السباق اليوم ليس على التقنيات المبتكرة للذكاء الاصطناعي أوdisruptive التي تكسر الموجود أو الوصول إلى مستوى الذكاء البشري Human Level AIحسب كبير علماء مختبر الذكاء الاصطناعي في شركة ميتا Yann Lecun :
“علينا قبل ذلك، الوصول إلى مستوى ذكاء الكلب أو القطة نحن لسنا قريبين من ذلك”. ويضيف “ما زلنا نفتقد شيئًا كبيرًا. على الرغم من قدرات نموذج اللغة الكبير Large Language Model LLM قطة المنزل لديها طريقة أكثر منطقية وفهمًا للعالم من أي ماجستير في القانون”. ملمحا إلى نجاح ChatGPT في اختبار ماجستير القانون في كلية الحقوق.
Before we reach Human-Level AI (HLAI), we will have to reach Cat-Level & Dog-Level AI. We are nowhere near that. We are still missing something big. LLM's linguistic abilities notwithstanding. A house cat has way more common sense and understanding of the world than any LLM.
التغيرات أوdisruptive التي تكسر الموجود أو الثورية هنا في تكنولوجيا الذكاء الاصطناعي ، ليست تقنية وإنما في سوق الذكاء الاصطناعي وكيفية استثمار تطبيقات هذا الذكاء الاصطناعي الموجهة للمستقبل وللغد، ومن سيسيطر عليه كما كان غوغل في سوق محركات البحث و فيسبوك في المنصات الاجتماعية!
التنافس اليوم ليست في كينونة هذه النماذج إن كانت ثورية أم لا، بل مَن مِن بين الشركات العملاقة التي تستثمر المليارات من الدولارات في أبحاث الذكاء الاصطناعي ستسيطر على سوق الاستهلاك للعامة!
مرت ثلاثون سنة على بداية التحول الرقمي مع فتح شبكة الإنترنت للعامة وولادة الويب وتطبيقاته المختلفة التي غيرت في الصميم كل مفاصل حياة البشري الذي أصبح اليوم المستهلك المتصل. فعلينا اليوم طرح السؤال :ما سيكون تأثير نماذج الذكاء الاصطناعي المختلفة في المستقبل على حياتنا كبشر؟ فهذه النماذج من الذكاء الاصطناعي كـ Chat GPT ليست محايدة” لأنها مدربة على بيانات مختارة ومحددة مسبقا” وبالتالي ما سيكون تأثير هذه التقنيات على خصوصيتنا، على مستقبل مهن معينة، و على أسلوب تعلم البشري؟
غير أن السؤال الأساسي اليوم من خلال هذا التنافس المحموم الذي أنطلق، من سيسيطر على هذا السوق ويغير في الصميم حياة هذا البشري؟ غوغل، ميتا، مايكروسوفت، آبل، أو ربما العملاق الصيني Baidu الذي هو بدوره بصدد إطلاق نموذج محادثة للذكاء الاصطناعي شبيه بـ ChatGPT المسمى “Wenxin Yiyan” باللغة الصينية و”ERNIE Bot” بالإنجليزية لتنضم هذه الشركة العملاقة إلى السباق العالمي للسيطرة على هذه التكنولوجيا.
العالم مشغول بقدرات النموذج الذكاء الاصطناعي للمحادثة ChatGPT، الذي تطوره OpenAI.كثير يستخدمونه مع أدوات أخرى لتسهيل عملهم. عدا عن الجدل الذي يثيره من استخدام الطلاب له في تحضير فروضهم.
بالرغم من الهفوات القليلة في بعض الإجابات غير الدقيقة، غير أن الاختبارات الأخرى أظهرت إمكانات مذهلة لـ ChatGPT. ولكن بعد الذهول العام بقدرات ChatGPT، بدأت تخرج إلى العلن الخفايا المظلمة لكيفية تطوير وتعليم وتثقيف GPT-3 و ChatGPT و أيضا أدوات الذكاء الاصطناعي المنافسة.
فقد كشف تقرير لمجلة “تايم” الأمريكية أن شركة OpenAI من أجل “تثقيف” الذكاء الاصطناعي، وجعله اقل إيذاء أو less Toxic حسب التقرير، وضعت آلية أمان إضافية شبيهة بما تقوم به شركة فيسبوك، حيث لجأت OpenAI إلى خدمات شركة كينية لتثقيف ولتهذيب ChatGPT، قبل أن تجرؤ على طرحه للجمهور؛ أي استخدام مئات الموظفين بأجور بخسة وساعات عمل طويلة و تأثير نفسي ضار، للإشراف على ملايين البيانات لتهذيب الذكاء الاصطناعي.
لماذا الحاجة لتهذيب نموذج الذكاء الاصطناعي للمحادثة ChatGPT أو غيره من أدوات الذكاء الاصطناعي ؟
لأن هذا النموذج و غيره من نماذج الذكاء الاصطناعي يدرب على مئات المليارات من الكلمات و البيانات المستخرجة من الإنترنت web scraping. يمكن أن نتخيل ما تحتويه البيانات الضخمة هذه من كم هائل من محتوى عنيف ومتحيز وعنصري وخطاب يحض على الكراهية. والسبب أيضا بالنسبة لـ ChatGPT أن نموذج GPT-3، الذي يعمل على أسسه ChatGPT، أظهر في الماضي قدرة هائلة في إبداء ملاحظات عنيفة ومتحيزة جنسيًا وملاحظات عنصرية. لذا كانت الضرورة تصحيح تعلم الذكاء الاصطناعي لإنشاء ذكاء اصطناعي معتدل لـ ChatGPT.
فكان على مئات الموظفين الذين يعملون بأجور بخسة ولساعات عمل طويلة في الشركة الكينيةSama مراجعة مجموعة هائلة من البيانات أرسلتها لهم OpenAI.تحتوي هذه البيانات على كلمات مروعة و مؤذية، بما في ذلك روايات عن الاعتداء الجنسي على الأطفال، والقتل، والانتحار، أو حتى التعذيب.
أُطلق على موظفي شركة Sama الكينية اسم “عمال النقر”، فهم مجموعة من العمال غير مرئيين، تثري البيانات، مجموعة مخفية تحت شعار الابتكارات التقنية.
لهؤلاء العمال دور حيوي إلى جانب عالم البيانات، ومهارات مهندسي البيانات، فهم يتعرضون للأذى النفسي في أثناء مشاهدة ومراجعة النصوص العنيفة والمتحيزة دون أي تعويض، فرواتبهم تتراوح بين دولار ونصف ودولارين في الساعة.
أوقفت الشركة الكينية عقدها مع OpenAI بحجة حماية موظفيها، وصرفت معظم العاملين في الإشراف على محتوى تثقيف ChatGPT، دون تعويضات.علما أن هذه الشركة كانت تتعامل أيضا مع فيسبوك لتدريب خوارزميات الإشراف على المحتوى على منصة فيسبوك.
نذكر حينها كيف كشف تقرير عن تعرض الموظفين المشرفين على تدريب خوارزميات فيسبوك لأزمات نفسية حادة نتيجة المحتوى العنيف السام والمتحيز.
يقول أندرو سترايت، خبير أخلاقيات الذكاء الاصطناعي، إن “حاجة البشر إلى تصنيف البيانات لأنظمة الذكاء الاصطناعي لا تزال قائمة، وأن ChatGPT والنماذج التوليدية الأخرى ليست سحرية، فهي تعتمد على أعداد هائلة من العمالة البشرية والبيانات المستخرجة من الإنترنت web scraping”.
يشير أندرو سترايت إلى أن “هذه البيانات لا تنسب إلى أصحابها وتستخدم من دون موافقة. وهي من المشكلات الأساسية التي لا تعالجها شركة OpenAI وغيرها من شركات الذكاء الاصطناعي”.
For 6 years, I did content moderation work at a large tech company. This work can be incredibly emotionally and mentally damaging.
This trauma, often outsourced to low paid workers, is the hidden price of these products. I get the excitement, but that must be acknowledged. https://t.co/b10UGf2DsZ
— Andrew Strait agstrait@someone.elses.computer (@agstrait) January 18, 2023
يثير عدم احترام حقوق التأليف والطبع والنشر وحقوق الاستخدام للبيانات والمعلومات المستخرجة من الإنترنت، وطلب موافقة المؤلفين على استخدام أعمالهم. يثير مسألة قانونية كبيرة. فعلى سبيل المثال تهدد مؤسسة Getty Images، إحدى أكبر مكاتب الصور في العالم، بمقاضاة Stability AI. شركة منافسة لـ OpenAI بتهمة “نسخ ومعالجة ملايين الصور المحمية بحقوق الطبع والنشر والبيانات الوصفية المرتبطة بها بشكل غير قانوني”.
كذلك هنالك إجراء قانوني جماعيclass action يعتبر أن الذكاء الاصطناعي التوليدي يدربمن ملايين الأعمال المقرصنة. ويطالب الإجراء القانوني الذي أطلقه مجموعة من الفنانين بتعويضات من Stability AI، وشركة الخدمات Stable DiffusionوMidjourney ومنصة DeviantArt.
هذا هو الوجه الأخر المظلم لـ ChatGP واقرانه من أدوات الذكاء الاصطناعي.
يتصدر نموذج الذكاء الاصطناعي ChatGPT الذي يتفاعل مع المستخدمين بلغة طبيعية أخبار التكنولوجيا و يثير الجدل حول استخداماته. وهو كأي أداة قوية يمكن استخدامه لأغراض إجرامية.
كشف خبراء الأمن السيبراني في Check Point إن القراصنة المحترفين يقومون بالتجارب لكيفية استخدام ChatGPT لتسهيل الهجمات الإلكترونية ودعم العمليات الخبيثة.
وحذر سيرجي شيكيفيتش، مدير مجموعة استخبارات التهديدات في شركة Check Point للأمن السيبراني ،من تمكن أفراد من الذين ليس لديهم خبرات تقنية، من تطوير أدوات و برمجيات خبيثة بمساعدة ChatGPT .
علما أن OpenAI تحظر في شروط استخدامها من استغلال. ChatGPT لتطوير أدوات الجرائم الإلكترونية. ومع ذلك، كشف خبراء الأمن السيبراني خلال تجوالهم في منتديات القرصنة السرية، إن القراصنة يستخدمون ChatGPT بالفعل لتطوير برمجيات خبيثة، خاصة هؤلاء من ليس لديهم خبرات تقنية.
على سبيل المثال، نشر قرصان في إحدى المنتديات كيف يستخدم ChatGPT لإعادة إنشاء سلالات وتقنيات البرامج الخبيثة من الدراسات و المنشورات البحثية والمقالات حول البرامج الخبيثة الشائعة. وتمكن من تطوير برامج خبيثة بلغة Python لسرقة المعلومات. تبحث هذه البرمجية الخبيثة عن الملفات الشائعة بما في ذلك مستندات Microsoft Office وملفات PDF والصور وتنسخها ثم تحملها على خادم بروتوكول نقل الملفات.
كما لاحظ خبراء آخرون أن بعضا من هؤلاء القراصنة المبتدئين طوروا برمجيات قد يمكن تحسينها لاستغلالها كبرامج فدية.
يبدو أن القراصنة يستخدمون ChatGPT أيضاً لتطوير أدوات يمكنها أدارة سوقًا آليًا في الويب المظلم لشراء وبيع بيانات بطاقات الائتمان والبرامج الخبيثة.
كذلك نشر قرصان جزءًا من التعليمات البرمجية التي طورت باستخدام واجهة برمجة تطبيقات تابعة لجهة خارجية للحصول على أسعار محدثة للعملات المشفرة Monero و Bitcoin و Ethereum كجزء من نظام الدفع لسوق الويب مظلم.
فمع تزايد الاهتمام بـ ChatGPT وأدوات الذكاء الاصطناعي الأخرى، فهي حتما ستجذب انتباه مجرمي الإنترنت والمحتالين الذين يتطلعون إلى استغلال هذه التكنولوجيا لإجراء حملات قرصنة بتكلفة منخفضة وبأقل جهد ممكن.
نموذج لغوي لذكاء اصطناعي تجريبي من مختبر ميتا يهدف “التنظيم التلقائي للعلوم”
أعلن مختبر ميتا للذكاء الاصطناعي بالتعاون مع Papers With Code، وهو فريق صغير مستقل من الباحثين من مختبر Meta AI يعمل على أدوات البحث، في15 من نوفمبر 20222، عن إطلاق نموذج تجريبي للغة جديدة Galactica ولكن لم تكن تتوقع شركة ميتا ولا الخبراء الباحثين أن يتحول هذا الإعلان إلى كابوس.
كان الهدف من نموذج Galactica مساعدة الباحثين في كتابة مقالاتهم العلمية عن طريق كتابة تلقائيا أجزاء من مراجع البحوث بفضل نموذج لغوي يهدف “التنظيم التلقائي للعلوم”. فقد درب فريق بحوث الذكاء الاصطناعي في ميتا هذا النموذج على مجموعة كبيرة من المعارف العلمية للبشرية بما في ذلك أكثر من 48 مليون مقال وكتب مدرسية وملاحظات محاضرات بالإضافة للمواقع العلمية والموسوعات.
يخزن هذا النموذج المعرفة العلمية ويجمعها و يعالجها للإسراع في كتابة المقالات العلمية. تحول هذا المشروع إلى كابوس وسحب النموذج التجريبي.
تبين أن نموذج Galactica يمكنه أيضًا توليد الهراء حسب مايكل بلاك، مدير معهد Max Planck للأنظمة الذكية في ألمانيا، الذي يعمل على التعلم العميق، وصف مايكل بلاك النتائج بأنها “خاطئة أو منحازة” لكنها “صادقة وموثوقة”.
I asked #Galactica about some things I know about and I'm troubled. In all cases, it was wrong or biased but sounded right and authoritative. I think it's dangerous. Here are a few of my experiments and my analysis of my concerns. (1/9)
كما اكتشف مستخدمون آخرون أنه يمكن لأي شخص إدخال تعليمات لكتابات عنصرية أو كتابات مهينة وإنشاء محتوى موثوق به حول هذه الموضوعات بسهولة كبيرة.
Shocked SHOCKED that it only took a handful of questions before Meta’s new Galactica text generation model regurgitated racist garbage. I asked it to write about linguistic prejudice. pic.twitter.com/PotQcl36rF
و يبدو أن أحدهم استخدم نموذج Galactica لإنشاء ويكي wiki عن ورقة بحثية خيالية بعنوان “فوائد تناول الزجاج المكسور” وتكررت التجربة بـ “فوائد معاداة السامية”
That's my primary concern. (see images) I got it to spit out numerous different formats for "the benefits of eating crushed glass." It hallucinated all kinds of positive statements, including study details, livestock trials, and chemical explanations: pic.twitter.com/jBiJUEBCdJ
هذا يطرح السؤال عن نمط تعلم الذكاء الاصطناعي من خلال تعليمها ببيانات ضخمة من الماضي البشري، فمن الصعب جدًا التأكد من أن برنامج الذكاء الاصطناعي ليس متحيزًا بطبيعته أو ليس له تأثيرات متحيزة.
هنا أذكر بجهود مجموعة من علماء الذكاء الاصطناعي كـ تيمنيت غيبرو، باحثة وعالمة أخلاقيات الذكاء الاصطناعي التي طردت من مختبر غوغل بعد طرحها أسئلة مزعجة في أبحاثها حول تحيز خوارزميات غوغل. فبعد عام من طردها، أطلقت معهد بحوث الذكاء الاصطناعي الموزعDistributed Artificial Intelligence Research Institute
للعمل على ذكاء اصطناعي أخلاقي عادل وغير منحاز. فهذه التقنيات ستؤثر حتما على مستقبل البشرية وعلى حقوق البشري إن لم تأطر بشكل يأخذ بعين الاعتبار التنوع الإنساني والنسيج الثري والمتنوع للجنس البشري.
سؤال يطرح بعد إعلان شركة Andreessen Horowitz عن عزمها إنشاء صندوق استثمار Games Fund One في السيليكون فالي للألعاب الإلكترونية بقيمة 600 مليون دولار أمريكي، مخصص للشركات الناشئة الواعدة في هذا القطاع، للاستثمار في استوديوهات الألعاب الإلكترونية والبنى التحتية وجذب العملاء على منصات على نسق منصة Twitch وغيرها.
يثير عالم الميتافيرس و الويب 3 نهم المستثمرين في كيفية الاستفادة من هذا العالم الموازي منذ أن أطلق مارك زوكيربيرغ عوالمه مع تحويل اسم شركة فيسبوك لـ ميتا وطرح الميتافيرس كمستقبل الإنترنت.
ربما تذكرون عندما تحدثنا عن الويب3 أو ويب الجيل الثالثكيف تهكم إيلون ماسك وجاك دورسي على مفهوم الويب 3 المبهم وكونه ساحة للمستثمرين فقط وليس للمستخدمين، و إن من يملكه هم من يملكون A إلىZ،في أشارة واضحة لشركة الاستثمار Andreessen Horowitz المعروفة أيضا باسم a16z. هي شركة استثمار رأس المال المغامر Venture Capital في عالم التكنولوجيا مؤسسييها Marc Andreessen و Ben Horowitz هما رياديون صناعة الإنترنت، واكبوا بدايات الويب مع برنامَج تصفح الإنترنت الشهير. Netscape و شركة Netscape التي أنشئت عام 1994.
أذكر هنا أن “الميتافيرس” العالم الافتراضي الثلاثي الأبعاد ليس بعالم جديد، بل عرفناه منذ عام 2003 مع لعبة Second Life و أيضا عبر الألعاب الإلكترونية التي تنال شهرة واسعة كـ League of Legends و Fortnite التي تطورها شركة ،Epic Games التي استثمرت فيها شركة Andreessen Horowitz، المعروفة اليوم في سعيها لتعزيز تطبيقات عالم الميتافيرس و الويب 3 و تعتبر “إن عالم الميتافيرس المقبل سيبنى بواسطة شركات الألعاب الإلكترونية”.
نايلة الصليبي
يمكن الاستماع لـ “بودكاست ديجيتال توك “على مختلف منصات البودكاست. الرابط للبودكاست على منصة أبل
أنعقد مؤتمر غوغل للمطورين السنوي GoogleI/O 2022 حضوريا يومي الثلاثاء 11 و الأربعاء 12 مايو 2022، وركز بشكل كبير على المنتجات وكيفية استثمارها بدل التحدث كالمعتاد عن المشاريع من كوكب المستقبل الخيالي لعشاق التكنولوجيا، المشاريع التي كانت شركة غوغل تنفق من دون حساب على البحث والتطوير.
الذي برز في مؤتمر غوغل للمطورين هو رهان الشركة الكبير على الذكاء الاصطناعي ما يعني ميزات جديدة مبتكرة تعتمد الذكاء الاصطناعي للمنتجات الحالية.
افتتح سندار بيشاي، الرئيس التنفيذي لشركة ألفابيت، أو غوغل سابقا، المؤتمر بسلسلة طويلة من الإعلانات لتحسين منتجات غوغل التي ستساعد المستخدمين مع شعار تسويقي بارز “عندما يتعلق الأمر بالمساعدة، لا يسعنا إلا المساعدة“.
على سبيل المثال كشف عن ميزة جديدة في خرائط غوغل مع وضع استكشاف ثلاثي الأبعاد التي تتيح عرض مدن معينة بدمج صور Google Earth مع Street View تجمع بين مشاهدة المدن وأيضا التجول داخل الشركات.
وأعلِن في المؤتمر عن إضافة لمستندات غوغل google Docs ميزة تلخص فيها تِلْقائيًا خوارزميات الذكاء الاصطناعي مستندا طويلا في فقرة واحدة.
كما تقترح غوغل، ودائما باستخدام الذكاء الاصطناعي، تحسين خدمة الإنشاء التلقائي للفصول في مقاطع الفيديو على يوتيوب.
من التحديثات المهمة أيضا في يوتيوب نقل المحتوى الصوتي إلى نص transcript voice to text ، لتسهيل قراءة محتوى الصوتي في الفيديو.
نعرف أن محرك البحث وهو المنتج الأساسي في شركة غوغل، التي تستمر في تحسين تقنية البحث الذي سيضاف لها ميزة تسمى Multisearch Near Me. يلتقط مثلا المستخدم صورة لجزء من جهاز يوَد إصلاحه، ثم يضيف للصورة مصطلح “بالقرب مني” عندها يبحث غوغل عن توفر هذه القطعة في متجر قريب و في مثال آخر، أظهرت غوغل كيف يمكن العثور على صورة لطبق معين، مثل المعكرونة الكورية المقلية، ثم البحث عن المطاعم القريبة التي تقدم هذا الطبق.
كذلك عن طريق استخدام تطبيق غوغل Lens يمكن للمستخدم التقاط صورة لرف مليء بالشوكولاتة ثم العثور على أفضل لوح شوكولاتة داكنة من دون مكسرات تمت مراجعته من خلال الصورة.
سيتم إطلاق وظيفة “Multisearch Near Me” في جميع أنحاء العالم في وقت لاحق من هذا العام للمستخدمين الناطقين باللغة الإنجليزية.
جديد أجهزة الهاتف الذكي ” بيكسل ” !
كثيرون يعتبرون هواتف بيكسل من أفضل وأسرع الهواتف في العالم، التي تلتقط صورا بتقنية عالية، فقد كُشِف خلال المؤتمر عن نسخة أرخص من الهاتف الذكي Pixel 6a بسعر 449 دولارًا.
كما قدمت غوغل نظرة سريعة لهاتفي Pixel 7 و Pixel 7 Pro ، مع الجيل التالي من شريحة Google Tensor و نظام التشغيل الجديد Android 13 وقدرات جديدة لنظام التشغيل ولكاميرا هاتف “بيكسل”.
كذلك تم تقديم ميزات جديدة لسماعات الأذن Pixel Buds Pro بالتحديد قدرة اتصال متعدد النقاط والتبديل في نفس الوقت بين العديد من الأجهزة المتصلة بالبلوتوث. كما سيضاف لها ميزة Spatial Audio في وقت لاحق من عام 2022.
منتجات جديدة كانت قد امتنعت سابقا غوغل عن التطرق لها؟
يقول المثل الفرنسي Il n’y a que les imbéciles qui ne changent pas d’avis.” الحمقى فقط لا يغيرون رأيهم “. فقد أعلنت شركة غوغل دخول ميدان تصنيع الساعات الذكية بعدد سنوات من التردد، أعلنت غوغل بيكسل واتش، أولى ساعة ذكية مع شاشة مستديرة من غوغل ،من المتوقع إطلاقها في وقت لاحق من خريف 2022 من دون تفاصيل محددة. وستعمل بنظام Wear OS.
هذا بالإضافة طبعا للعودة لفكرة طرح كمبيوتر لوحي “بيكسل” عام 2023، بعد امتناع غوغل من دخول مجال تطوير الأجهزة اللوحية،سيعمل هذا الجهاز بنظام التشغيل أندرويد وسيكون متوافقًا مع مختلف أجهزة غوغل المحمولة.
هذا ما اشارت له غوغل في مؤتمرها للمطورين عن رغبتها إنشاء بيئة متوافقة وقدرة التواصل بين جميع أجهزة الأندرويد على نسق ما تقوم به شركة أبل.
هنالك عدد كبير من المنتجات والميزات التي تم الإعلان عنها في مؤتمر GoogleI/O 22 خاصة النظارات الذكية التي يبدو أن غوغل ستعود لإنتاجها بعد توقفها عن إنتاج نظاراتها الذكية الأولى عام 2014 وتطويرها بشكل أفضل مع واقع معزز وقدرة التَّرْجَمَةً الفورية.
في خطوة تعدّ الأولى من نوعها اعتمدت جميع الدول الأعضاء في منظمة الأمم المتحدة للتربية والعلم والثقافة –اليونسكو– يوم الخميس 25 نوفمبر 2021أنصا يحدد القيم والمبادئ المشتركة اللازمة لضمان تطوير الذكاء الاصطناعي بصورة سليمة. وبعد المؤتمر العام عرضت المديرة العامة لليونسكو، أودري أزولاي خلال لقاء صحفي أبرز محاور التوصية لتأطير أخلاقيات الذكاء الاصطناعي. فتكنولوجيا الذكاء الاصطناعي التي تقدم الكثير للبشري تولِّد أيضا تحديات جديدة غير مسبوقة، كتفاقم التحيز الجنساني أو الجندري والإثني، وتعرض الخصوصية لتهديدات جدية، وبالتالي بروز خطر المراقبة الجماعية، بالإضافة لزيادة استخدام تكنولوجيات الذكاء الاصطناعي غير الموثوق بها في مجال إنفاذ القانون. بالإضافة لأسئلة عدّة مقلقة.
كانت قد شددت المديرة العامة لليونسكو، أودري أزولاي إلى حاجة العالم إلى وضع قواعد للذكاء الاصطناعي تعود البشرية، تعدّ التوصية إحدى هذه القواعد الرئيسية، فهي تحدِّد أول إطار تقنيني عالمي، وتحمِّل الدول مسؤولية تطبيقه على الصعيد الوطني لديها. وستقدِّم اليونسكو الدعم إلى دولها الأعضاء المائة والثلاثة والتسعين، وتطلب منها تقديم تقارير دورية عن التقدم الذي تحرزه والممارسات التي تطبقها.
المعايير المقترحة للتصدّي لهذه المسائل التي أطلقتها اليونسكو تتمحور حول أربع نِقَاط أساسية
حماية البيانات
حظر وضع العلامات الاجتماعية وإجراء عمليات المراقبة الجماعية
تنقل نايلة الصليبي ابتكارا تقنيا لنظارات ذكية متصلة مجهزة بعدسات إلكترونية مع مرشحات نشطة تساعد الأطفال والمراهقين الذين يعانون عسر القراءة.
منذ سنوات وأنقل لكم في هذه الفقرة ابتكارات التكنولوجيا في عالم الرياضة والصحة والطبابة التي تعتمد تسهيل ومساعدة البشري الذي بات متصلا بامتياز. ففي عصر الذكاء الاصطناعي والتقنيات القابلة للارتداء wearable Technology، ها هي اليوم تدخل هذه التقنيات عالم من يعانون عسر القراءة أو Dyslexia
فالخلط بين الحروف والكلمات، تشكل للعديد من الأطفال والمراهقين حاجزا صعبا للتقدم في التعلم والدراسةـ ونتيجة ذلك يشعرون بالفشل، وعدم الثقة بالنفس. ويواجه المصابون بعسر القراءة مشكلات في تعلم القراءة أو الهجاء أو الكتابة بغض النظر عن مستويات الذكاء الطبيعية لديهم. فبالنسبة للمصابين بعسر القراءة، تبدو الحروف متحركة أو في موضع خطأ، ويمكن أن يختلط عليهم الأمر في اتجاه الكتابة بين اليمين واليسار.
عام 2017 خلصت دراسة نشرها باحثان فرنسيان في علوم فيزياء الليزر من جامعة رين، Albert Le Floch و Guy Ropars. الحائزان عام 2020 على جائزة “الأكاديمية الوطنية للطب” عن أعمالهم هذه التي نشرت في أكتوبر 2017 في مجلة “بحوث الجمعية الملكية“The Royal Society، عن السبب المحتمل وراء حالات “عسر القراءة” التي تكمن في خلايا صغيرة داخل العين البشرية في منطقة من شبكية العين تسمى fovea يمكن أن تكون الأصل البيولوجي وراء عجز القراءة والهجاء.
ففي معظم حالات عسر القراءة التي لاحظها باحثان، كشفا، عن وجود بقع مستديرة مهيمنة في العينين، وليس في عين واحدة. إذ تتميز عينا الإنسان بأن أحداهما تكون مهيمنة، وذلك على نفس النحو الذي تكون إحدى اليدين مهيمنة. وهو ما يؤدي إلى الضبابية والتشوش في الرؤية.
اكتشف الباحثان اختلاف شكل البقع عميقا داخل العين، حيث توجد الخلايا المخروطية الحمراء والخضراء والزرقاء، المسؤولة عن تحديد الألوان.ولدى من لا يعانون عسر القراءة، كانت البقع الزرقاء الخالية من الخلايا المخروطية مستديرة في إحدى العينين، ومستطيلة أو غير منتظمة الشكل في العين الأخرى، وهو ما يجعل المستديرة هي العين المهيمنة.
أما من يعانون عسر القراءة، كان في البقع في كلتا العينين بنفس الاستدارة، وهو ما يعني أن أيا من العينين هي المهيمنة. وينتج عن هذا ارتباك المخ بسبب وجود صورتين مختلفتين بعض الشيء.
هذه الدراسة دفعت بشركة ناشئة فرنسية Abeye إلى تطوير نظّارات ذكية بالتعاون مع شركة نظارات طبية فرنسية Atol، هذه النظارات الذكية تحمل اسم Lexilens وهي مجهزة بعدسات إلكترونية مع مرشحات نشطة تزيل الصور طبق الأصل، أو الصور المرآة التي يشاهدها الأشخاص الذين يعانون عسر القراءة. ويتم التحكم في هذه المرشحات عن طريق إلكترونيات مدمجة في ذراع إطار النظارات وتُعدل المرشحات خلال الاستخدام عبر تقنية البلوتوث في تطبيق على الهاتف الذكي.
الاختبارات الأولى، التي أجريت، تظهر فعالية في “أكثر من 90٪ من الحالات. من المتوقع أن تصبح نظارات Lexilens متاحة في وقت لاحق من عام 2021. فهي ما زالت قيد الاختبار. ستتوفر هذه النظارات للأطفال بسعر 399 يورو، بانتظار تطوير نموذجا للبالغين.
انوه برفض اتحاد المختصين في علم أمراض الكلام واللغة في فرنسا هذه التقنية، بحجة أن هذه النظارات ليست مخصصة لجميع أنواع عسر القراءة، وذكر الموقع أن ارتداءها يجب أن يكون مرفقا بجلسات علاج النطق.