37.2 C
Riyadh
السبت, يوليو 12, 2025

الكاتب

فهد تركي
فهد تركي
كاتب يعمل بالذكاء الاصطناعي

إقرأ أيضا

مزيد من التفاصيل تظهر حول IQOO 15

مزيد من التفاصيل تظهر حول IQOO 15 مرة أخرى...

Samsung Galaxy Z Flip7 In للمراجعة

Samsung Galaxy Z Flip7 In للمراجعة مرحبًا يا من...

تزداد سوء الهلوسة من الذكاء الاصطناعي ، حتى عندما تصبح الأنظمة الجديدة أكثر قوة

تزداد سوء الهلوسة من الذكاء الاصطناعي ، حتى عندما تصبح الأنظمة الجديدة أكثر قوة

في الشهر الماضي ، روبوت الذكاء الاصطناعى يتولى الدعم الفني للمؤشر ، أداة صاعدة لمبرمجي الكمبيوتر، نبهت العديد من العملاء حول تغيير في سياسة الشركة. قال إنه لم يعد يُسمح لهم باستخدام المؤشر على أكثر من مجرد كمبيوتر واحد. في المشاركات الغاضبة إلى لوحات رسائل الإنترنت، اشتكى العملاء. ألغى البعض حسابات المؤشر الخاصة بهم. وأصبح البعض أكثر غضبًا عندما أدركوا ما حدث: لقد أعلن روبوت الذكاء الاصطناعي عن تغيير في السياسة غير موجود. “ليس لدينا مثل هذه السياسة. كتب في منشور رديت. “لسوء الحظ ، هذا استجابة غير صحيحة من روبوت دعم الذكاء الاصطناعي في الخط الأمامي.” بعد أكثر من عامين وصول chatgpt، يستخدم شركات التكنولوجيا وعمال المكاتب والمستهلكين كل يوم روبوتات منظمة العفو الدولية لمجموعة واسعة من المهام بشكل متزايد. ولكن لا يزال هناك لا توجد طريقة لضمان أن هذه الأنظمة تنتج معلومات دقيقةأحدث التقنيات وأقوىها-ما يسمى أنظمة التفكير من شركات مثل Openai و Google و Deepseek المبدئي الصيني-تولد المزيد من الأخطاء ، وليس أقل. مع تحسن مهاراتهم في الرياضيات بشكل ملحوظ ، أصبح التعامل مع الحقائق أكثر هشاشة. ليس من الواضح تمامًا سبب وجود روبوتات AI في Today النظم الرياضية المعقدة الذين يتعلمون مهاراتهم من خلال تحليل كميات هائلة من البيانات الرقمية. إنهم لا – ولا يمكنهم – يقررون ما هو صحيح وما هو خاطئ. في بعض الأحيان ، يصنعون الأشياء فقط ، وهي ظاهرة تسمي بعض الباحثين من الذكاء الاصطناعي الهلوسة. في أحد الاختبارات ، كانت معدلات الهلوسة لأنظمة الذكاء الاصطناعى الأحدث تصل إلى 79 في المائة. تستخدم هذه الأنظمة الاحتمالات الرياضية لتخمين أفضل استجابة ، وليس مجموعة صارمة من القواعد المحددة من قبل المهندسين البشر. لذلك يرتكبون عددًا معينًا من الأخطاء. وقال عمر عواد الله ، الرئيس التنفيذي لشركة Vectara ، وهي شركة ناشئة تقوم ببناء أدوات AI للشركات ، ومدير تنفيذي سابق في Google: “على الرغم من جهودنا ، فإنهم دائمًا ما يهلون”. “هذا لن يختفي أبدًا”. لعدة سنوات ، أثارت هذه الظاهرة مخاوف بشأن موثوقية هذه الأنظمة. على الرغم من أنها مفيدة في بعض المواقف – مثل كتابة أوراق مصطلحوتلخيص وثائق المكتب و إنشاء رمز الكمبيوتر – يمكن أن تسبب أخطائهم مشاكل. الروبوتات المرتبطة بمحركات البحث مثل Google و Bing تولد في بعض الأحيان نتائج بحث خاطئة بشكل مثير للضحك. إذا طلبت منهم ماراثون جيد على الساحل الغربي ، فقد يقترحون سباقًا في فيلادلفيا. إذا أخبركم بعدد الأسر في إلينوي ، فقد يستشهدون بمصدر لا يشمل هذه المعلومات أوكاه، الشركة التي تساعد الشركات على التنقل في مشكلة الهلوسة. “عدم التعامل مع هذه الأخطاء بشكل صحيح يلغي قيمة أنظمة الذكاء الاصطناعى ، والتي من المفترض أن تتم أتمتة المهام بالنسبة لك.” لم يستجب Cursor و Mr. Truell لطلبات التعليق. لأكثر من عامين ، قامت شركات مثل Openai و Google بتحسين أنظمة الذكاء الاصطناعي بشكل مطرد وتقليل تواتر هذه الأخطاء. ولكن مع استخدام جديد أنظمة التفكيرالأخطاء ترتفع. يهلل أحدث نظام Openai Systems بمعدل أعلى من النظام السابق للشركة ، وفقًا للاختبارات الخاصة بالشركة. هذا أكثر من ضعف معدل الهلوسة لنظام التفكير السابق في Openai ، يسمى O1. تم الهلام الجديد O4-MINI بمعدل أعلى: 48 في المائة. عند إجراء اختبار آخر يسمى SimpleQA ، والذي يطرح أسئلة عامة أكثر ، كانت معدلات الهلوسة لـ O3 و O4-MINI 51 في المائة و 79 في المائة. النظام السابق ، O1 ، هلوسة 44 في المئة من الوقت.في ورقة تفصل الاختباراتوقال Openai إن هناك حاجة إلى مزيد من البحث لفهم سبب هذه النتائج. نظرًا لأن أنظمة الذكاء الاصطناعى تتعلم من بيانات أكثر مما يمكن للناس أن يلفوا رؤوسهم ، فإن التكنولوجيا تكافح من أجل تحديد سبب تصرفهم بالطرق التي يقومون بها. “إن الهلوسة ليست بطبيعتها أكثر انتشارًا في نماذج التفكير ، على الرغم من أننا نعمل بنشاط على تقليل معدلات الهلوسة التي رأيناها في O3 و O4-Mini ،” متحدثة شركة ، Gaby Raila. “سنواصل أبحاثنا حول الهلوسة في جميع النماذج لتحسين الدقة والموثوقية.” هانانه هاجشييرزي ، أستاذ بجامعة واشنطن وباحث في معهد ألين للذكاء الاصطناعي ، هو جزء من فريق ابتكر مؤخرًا وسيلة لتتبع سلوك النظام إلى أجزاء فردية من البيانات تم تدريبها. ولكن نظرًا لأن الأنظمة تتعلم من الكثير من البيانات – ولأنها يمكن أن تنشئ أي شيء تقريبًا – لا يمكن لهذه الأداة الجديدة شرح كل شيء. “ما زلنا لا نعرف كيف تعمل هذه النماذج بالضبط” ، قالت. تشير اختبارات الشركات والباحثين المستقلين إلى أن معدلات الهلوسة ترتفع أيضًا لنماذج التفكير من شركات مثل Google و Deepseek. تتبع عدد المرات التي تنطلق فيها chatbots من الحقيقة. تطلب الشركة من هذه الأنظمة القيام بمهمة مباشرة تم التحقق منها بسهولة: تلخيص مقالات إخبارية محددة. وحتى مع ذلك ، تخترع chatbots باستمرار المعلومات. قدرت الأبحاث الأصلية لـ Vectara أنه في هذه الحالة ، قامت chatbots بتكوين معلومات ما لا يقل عن 3 في المائة من الوقت وأحيانًا ما يصل إلى 27 في المائة. في العام ونصف منذ ذلك الحين ، دفعت شركات مثل Openai و Google هذه الأرقام إلى نطاق 1 أو 2 في المائة. آخرون ، مثل San Francisco Start-Up Anthropic ، تحوم حوالي 4 في المائة. لكن معدلات الهلوسة في هذا الاختبار ارتفعت مع أنظمة التفكير. نظام التفكير Deepseek ، R1 ، هلوس 14.3 في المئة من الوقت. ارتفع Openai's O3 إلى 6.8. (صحيفة نيويورك تايمز لديها مقاضاة Openai وشريكها ، Microsoft ، متهمينهم بانتهاك حقوق الطبع والنشر فيما يتعلق بمحتوى الأخبار المتعلق بأنظمة الذكاء الاصطناعى. نفت Openai و Microsoft هذه المطالبات.) لسنوات ، اعتمدت شركات مثل Openai على مفهوم بسيط: كلما زادت بيانات الإنترنت التي أطعموها في أنظمة الذكاء الاصطناعي ، من الأفضل أداء تلك الأنظمة. لكنهم استهلك كل النص الإنجليزي على الإنترنت، مما يعني أنهم يحتاجون إلى طريقة جديدة لتحسين chatbots. لذلك هذه الشركات تميل بشكل كبير على تقنية يسميها العلماء تعلم التعزيز. مع هذه العملية ، يمكن للنظام تعلم السلوك من خلال التجربة والخطأ. إنه يعمل بشكل جيد في مجالات معينة ، مثل الرياضيات وبرمجة الكمبيوتر. لكنها تقصر في مجالات أخرى. “الطريقة التي يتم بها تدريب هذه الأنظمة ، ستبدأ في التركيز على مهمة واحدة-ويبدأون في نسيان الآخرين” ، قالت لورا بيريز-بيلتراشيني ، باحثة في جامعة إدنبرة وهي من بين أ الفريق يفحص مشكلة الهلوسة عن كثبهناك قضية أخرى هي أن نماذج التفكير مصممة لقضاء الوقت “التفكير” من خلال مشاكل معقدة قبل الاستقرار على إجابة. أثناء محاولتهم معالجة مشكلة خطوة بخطوة ، يتعرضون لخطر الهلوس في كل خطوة. يمكن أن تضاعف الأخطاء أثناء قضاء المزيد من الوقت في التفكير. تكشف أحدث الروبوتات عن كل خطوة للمستخدمين ، مما يعني أن المستخدمين قد يرون كل خطأ أيضًا. لقد وجد الباحثون أيضًا أنه في كثير من الحالات ، توجد الخطوات التي يعرضها الروبوت لا علاقة له بالإجابة التي يسلمها في النهاية“ما يقوله النظام إنه لا يعتقد بالضرورة ما يفكر فيه”. (tagstotranslate) أجهزة الكمبيوتر الذكية الاصطناعية (T) والإنترنت (T) البحوث (T) Deepseek الذكاء الاصطناعي Ltd (T) الأنثروبولوجيا AI LLC (T) Openai Labs (T) Vectara Inc

المصدر

ترك الرد

من فضلك ادخل تعليقك
من فضلك ادخل اسمك هنا

CAPTCHA


إقرأ أيضاً

مزيد من التفاصيل تظهر حول IQOO 15

مزيد من التفاصيل تظهر حول IQOO 15 مرة أخرى سمعنا أن iqoo 15 ستحتوي على شاشة QHD+ Samsung ذات الصنع المصنوعة من Samsung المصنوعة...

توظف Google الرئيس التنفيذي لشركة Windsurf Varun Mohan في أحدث صفقة مواهب الذكاء الاصطناعي

توظف Google الرئيس التنفيذي لشركة Windsurf Varun Mohan في أحدث صفقة مواهب الذكاء الاصطناعي الرئيس التنفيذي لشركة Google Sundar Pichai.Marek Antoni Iwanczuk | صور...

Samsung Galaxy Z Flip7 In للمراجعة

Samsung Galaxy Z Flip7 In للمراجعة مرحبًا يا من هناك، Galaxy Z Flip7! قد يطير أحدث طيور من Samsung تحت الرادار وهو Galaxy Z...