Home أخبار جوجل في عصر إليزابيث هولمز

جوجل في عصر إليزابيث هولمز

17
0

إن ميزات الذكاء الاصطناعي الجديدة التي أعلنت عنها جوجل منذ أسابيع قليلة قد وصلت أخيرًا إلى الاتجاه السائد، وإن لم يكن بالطريقة التي قد تفضلها جوجل.

كما قد تكون استنتجت من التغطية والأحاديث الأخيرة (أو حتى من تجربتك بنفسك)، فإن مراجعات الذكاء الاصطناعي التي تم إنشاؤها تلقائيًا والموجودة الآن على قمة العديد من نتائج بحث Google تقدم إجابات … حسنًا، إن وصفها بأنها غير صحيحة هو أمر صحيح ولكنه لا يوضح الأمر تمامًا. جرب السريالية والسخيفة وربما تكون خطيرة بدلاً من ذلك. منذ طرحها، طلبت ميزة AI Overviews من المستخدمين تدخين السجائر أثناء الحمل، وإضافة الغراء إلى البيتزا المخبوزة في المنزل، ورش مضاد التجمد المستخدم على مروجهم، وغلي النعناع من أجل علاج التهاب الزائدة الدودية.

لمعالجة الإجابات الخاطئة على كل من الاستفسارات المباشرة والمضحكة، يبدو أن Google تعالج كل حادثة واحدة تلو الأخرى وتعدل النظرات العامة ذات الصلة وفقًا لذلك. ومع ذلك، قد تمتد الإجابات المعطلة في أعلى صفحات Google إلى ميزات محرك البحث الأخرى، مثل الآلة الحاسبة التلقائية: اكتشف أحد المستخدمين المقيمين في الولايات المتحدة، حيث نشر لقطة شاشة على X، أن تقنية Google لم تتمكن حتى من مسح ذلك وحدة سم تعني السنتيمتر، وقراءة المقياس كمتر كامل. ادعت خبيرة تحسين محركات البحث ليلي راي أنها تحققت بشكل مستقل من هذه النتيجة.

ذلك سيئ جدا.

الآن جوجل لا يعرف حتى أن سم = سنتيمتر؟

وتظهر الآلة الحاسبة تلقائيا بإجابة خاطئة؟ موافق.

(لقد تمكنت من التكرار) https://t.co/DgOcfCp2QF

– ليلي راي 😏 (@lilyraynyc) 27 مايو 2024

لقد دفع النشر الشامل لـ AI Overviews المستخدمين والمحللين إلى مشاركة اكتشافات Google الأخرى، حتى الأكثر تعقيدًا: يبدو أن روبوت Gemini الأساسي ينتج “الإجابات” أولاً، ثم يعثر على الاستشهادات. يبدو أن هذه العملية تتسبب في ظهور الكثير من الروابط القديمة وغير المرغوب فيها والمعطلة كمعلومات داعمة لهذه الاستجابات. ومع ذلك، فإن جوجل – التي لا تزال تكتسح أكوامًا من دولارات الإعلانات الرقمية، على الرغم من خسارتها مؤخرًا بعضًا من حصتها في السوق – ترغب في إدراج المزيد من الإعلانات في “النظرات العامة”، والتي يمكن أن يكون بعضها “مدعمًا بالذكاء الاصطناعي” بحد ذاته.

وفي الوقت نفسه، فإن مجرد ظهور ميزة AI Overviews يؤدي بالفعل إلى إعادة توجيه حركة المرور من مصادر أكثر موثوقية والتي تظهر عادةً على Google. وخلافًا لتصريحات الرئيس التنفيذي ساندر بيتشاي، فقد وجد خبراء تحسين محركات البحث (SEO) أن الروابط الموجودة في “النظرات العامة” لا تحصل على الكثير من تعزيزات النقر من موضعها. (يعد هذا العامل، إلى جانب المعلومات الخاطئة، مجرد جزء من السبب وراء اختيار الكثير من المؤسسات الإخبارية الكبرى، بما في ذلك Slate، عدم التضمين في AI Overviews. وقد أخبرني متحدث باسم Google أن “مثل هذه التحليلات ليست طريقة موثوقة أو شاملة” لتقييم حركة المرور من بحث Google.”)

توصلت دراسات راي إلى أن حركة المرور على Google لنتائج البحث إلى الناشرين قد انخفضت بشكل عام هذا الشهر، مع زيادة الرؤية إلى المشاركات من Reddit – الموقع الذي، بالمناسبة، كان مصدرًا لتوصية الغراء على البيتزا سيئة السمعة والتي وقعت اتفاقيات بملايين الدولارات مع Google لصالح المزيد من ذلك. (أجاب المتحدث باسم جوجل قائلاً: “هذه ليست بأي حال من الأحوال دراسة شاملة أو تمثيلية لحركة المرور إلى المنشورات الإخبارية من بحث جوجل.”)

لا تزال العديد من المواقع تشهد انخفاضًا كبيرًا في الأسبوعين الماضيين، بما في ذلك العديد من مواقع الأخبار والناشرين الشهيرة.

كما أنني أتحقق أيضًا من مسار Reddit يوميًا، متوقعًا أن ينخفض ​​في مرحلة ما. لا، لقد ارتفع للتو عن الرسم البياني مرة أخرى.

للسياق، استخدم هذا… pic.twitter.com/ipH9BDfjz9

– ليلي راي 😏 (@lilyraynyc) 29 مايو 2024

من المحتمل أن Google كانت على علم بجميع المشكلات قبل دفع AI Overviews إلى وقت الذروة. وقد وصف بيتشاي “الهلوسة” الخاصة بروبوتات الدردشة (أي ميلها إلى اختلاق الأشياء) بأنها “سمة متأصلة” واعترف بأن مثل هذه الأدوات والمحركات ومجموعات البيانات “ليست بالضرورة أفضل نهج للوصول دائمًا إلى الحقيقة”. “. وقال بيتشاي لموقع The Verge إن هذا شيء يعتقد أن بيانات وإمكانيات بحث Google ستعمل على إصلاحه. يبدو هذا مشكوكًا فيه في ضوء خوارزميات جوجل التي تحجب رؤية البحث للعديد من مصادر الأخبار الجديرة بالثقة وربما أيضًا “إشعال النار في مواقع صغيرة عن قصد”، كما أشار خبير تحسين محركات البحث مايك كينج في دراسته لمستندات بحث جوجل المسربة مؤخرًا. (يزعم المتحدث باسم Google أن هذا “خطأ تمامًا” وأننا “نحذر من وضع افتراضات غير دقيقة حول البحث استنادًا إلى معلومات خارج السياق أو قديمة أو غير كاملة.”)

والأهم من ذلك: لقد كان الذكاء الاصطناعي الخاطئ من Google معروضًا للعامة منذ فترة. في عام 2018، عرضت جوجل تقنية المساعد الصوتي التي يُزعم أنها يمكنها الاتصال بالأشخاص والرد عليهم في الوقت الفعلي، لكن Axios وجدت أن العرض التجريبي ربما استخدم بالفعل محادثات مسجلة مسبقًا، وليس المحادثات المباشرة. (رفضت جوجل التعليق في ذلك الوقت.) تم عرض برنامج الدردشة Bard، الذي كان موجودًا قبل الجوزاء، في فبراير 2023 وقدم إجابة غير صحيحة أدت إلى انخفاض سعر سهم الشركة مؤقتًا. في وقت لاحق من ذلك العام، تم الكشف عن أن الفيديو التقديمي المثير للإعجاب الذي قدمته الشركة للذكاء الاصطناعي متعدد الوسائط الخاص بـ Gemini قد تم تعديله بعد وقوعه، لجعل قدرته على التفكير تبدو أسرع مما كانت عليه في الواقع. (إشارة إلى انخفاض آخر لاحق في أسعار الأسهم.) كما أن مؤتمر المطورين السنوي للشركة، الذي انعقد قبل بضعة أسابيع فقط، لم يبرز أيضًا اقتراح Gemini، بل سلط الضوء على اقتراح خاطئ لإصلاح كاميرا الفيلم الخاصة بك.

وإنصافًا لشركة Google، التي تعمل منذ فترة طويلة على تطوير الذكاء الاصطناعي، فمن المحتمل أن يكون النشر السريع لجميع هذه الأدوات وإثارة الضجيج حولها هو طريقتها لمواكبة عصر ChatGPT – وهو روبوت الدردشة الذي، بالمناسبة، لا يزال يولد كمية كبيرة من الإجابات الخاطئة في مواضيع مختلفة. لا يبدو الأمر كما لو أن الشركات الأخرى التي تتبع اتجاهات الذكاء الاصطناعي التي تهدئ المستثمرين لا ترتكب أخطاء مضحكة أو تزييف عروضها التجريبية الأكثر إثارة للإعجاب.

في الشهر الماضي، ظهر في الواقع مفهوم متجر البقالة “Just Walk Out” الذي يفترض أنه مدعوم بالذكاء الاصطناعي والخالي من الإنسان، حيث ظهر العديد من البشر خلف الكواليس لمراقبة وبرمجة تجربة التسوق. تم العثور على نتائج مماثلة في سيارات الدفع الخالية من الإنسان والتي يُفترض أنها “تدعم الذكاء الاصطناعي” والتي تستخدمها سلاسل مثل Checkers وCarl’s Jr. وهناك أيضًا سيارات الرحلات البحرية “بدون سائق”، والتي تتطلب تدخلًا بشريًا عن بعد كل بضعة أميال يتم قطعها تقريبًا. الشركة الأم لـ ChatGPT OpenAI ليست محصنة ضد هذا، حيث قامت بتوظيف الكثير من البشر لتنظيف وتلميع المناظر الطبيعية المرئية المتحركة التي يُفترض أنها تم إنشاؤها بالجملة من خلال المطالبات المقدمة إلى منشئ الصور والأفلام Sora الذي لم يتم نشره بعد.

كل هذا، كما تعلمون، يشكل مجرد طبقة أخرى من العمالة المخبأة فوق العمليات البشرية التي يتم الاستعانة بمصادر خارجية لدول مثل كينيا ونيجيريا وباكستان والهند، حيث يتقاضى العمال أجورًا منخفضة أو يُزعم أنهم يُجبرون على العيش في ظروف “العبودية الحديثة” من أجل العمل. تقديم تعليقات باستمرار إلى روبوتات الذكاء الاصطناعي وتصنيف الصور ومقاطع الفيديو المروعة لأغراض الإشراف على المحتوى. لا تنس أيضًا البشر الذين يعملون في مراكز البيانات، ومصنعي الرقائق، ومولدات الطاقة المطلوبة بكميات كبيرة حتى لتشغيل كل هذه الأشياء.

ما الذي يجب أن يتعلمه مارك زوكربيرج من مشغلي التلغراف في القرن التاسع عشر؟

اقرأ أكثر

لذا، دعونا نلخص ما يلي: بعد سنوات من المضايقات، والادعاءات غير المبررة، والعروض التوضيحية، ورفض توفير المزيد من الشفافية، واستخدام العلامة التجارية “الخالية من الإنسان” بينما في الواقع يتم توظيف الكثير من البشر بطرق مختلفة (وضارة) ، لا تزال إبداعات الذكاء الاصطناعي هذه سيئة. إنهم يستمرون في اختلاق الأشياء على نطاق واسع، والسرقة من مصادر تدريبهم، وتقديم المعلومات والنصائح و”الأخبار” و”الحقائق” الخاطئة وغير المنطقية، والتي قد تشكل خطرًا على صحتك، والجسم السياسي، والأشخاص الذين يحاولون القيام بعمليات حسابية بسيطة. وآخرون يحكون رؤوسهم ويحاولون معرفة مكان وجود “السائل الوامض” في سيارتهم.

هل يذكرك هذا بأي شيء آخر في تاريخ التكنولوجيا؟ ربما إليزابيث هولمز، التي قامت بنفسها بتزوير الكثير من العروض التوضيحية وقدمت ادعاءات رائعة حول شركتها، ثيرانوس، لبيع “الابتكار التكنولوجي” الذي كان مستحيلا بكل بساطة؟

سام ألتمان يُظهر لنا حقيقته: هناك خلل رئيسي في طريقة تفكيرنا في المرض، والحل أمامنا مباشرةً. جوجل في عصر إليزابيث هولمز هل زيت الزيتون مفيد بشكل فريد لصحتك؟ ربما لا.

هولمز الآن وراء القضبان، ولكن الفضيحة لا تزال باقية في الخيال العام، لسبب وجيه. إذا نظرنا إلى الماضي، كان ينبغي أن تكون العلامات الصارخة واضحة جدًا، أليس كذلك؟ لم يكن لدى شركة Theranos الناشئة في مجال التكنولوجيا الحيوية أي خبراء في مجال الصحة في مجلس إدارتها. وروجت لادعاءات علمية زائفة لم تدعمها أي جهة، ورفضت توضيح أي مبررات لتلك التصريحات. فقد أقامت شراكات مع مؤسسات ضخمة (والموثوقة بالفعل) مثل والجرينز دون التحقق من سلامة إنتاجها. لقد غرس ثقافة السرية العميقة والمخيفة بين موظفيه وجعلهم يوقعون اتفاقيات عدوانية بهذا المعنى. لقد جلبت تأييدًا غير متوقع من أشخاص مشهورين وأقوياء، مثل نائب الرئيس جو بايدن، من خلال قوة الرهبة وحدها. وكانت تخفي باستمرار كل ما يغذي أنظمتها وإبداعاتها، حتى يبحث المراسلون العنيدون عن أنفسهم.

لقد مر ما يقرب من 10 سنوات منذ أن تم الكشف عن هولمز أخيرًا. ومع ذلك، فمن الواضح أن حشود المراقبين والمحللين التقنيين الذين صدقوا كلمتها هم أيضًا على استعداد لوضع كل ثقتهم في الأشخاص الذين يقفون وراء روبوتات الذكاء الاصطناعي التي تنتج الأخطاء، والتي تجرها الدواب، والتي يعمل بها خلف الستار، والتي وعد منشئوها ، سوف يغير كل شيء والجميع. على عكس شركة Theranos، بطبيعة الحال، قامت شركات مثل OpenAI بتصنيع منتجات للاستهلاك العام تتسم بالفعالية ويمكنها تحقيق بعض الإنجازات المثيرة للإعجاب. لكن الاندفاع لفرض هذه الأشياء في كل مكان، وجعلها تتولى مهام من المحتمل أنها ليست على وشك الاستعداد لها، وإبقائها في متناول الجميع على الرغم من سجل حافل من الأخطاء والأخطاء – هذا هو ما يبدو أننا فيه الاقتراض من كتاب قواعد اللعبة Theranos مرة أخرى. لم نتعلم شيئا. والعقول المدبرة وراء برامج الدردشة الآلية التي لا تعلمك شيئًا حقًا قد تفضل ذلك في الواقع الذي – التي.



مصدر

LEAVE A REPLY

Please enter your comment!
Please enter your name here