الجمعة, يناير 23, 2026
16.9 C
Los Angeles

انتظر، هل هناك هاتف Trump Phone Ultra قادم أيضًا؟

أين هاتف ترامب؟ سنواصل الحديث عنه كل...

إنها نهاية عصر أجهزة تلفزيون سوني

لا توجد العديد من شركات التكنولوجيا التي...
spot_img

ذات صلة

جمع

انتظر، هل هناك هاتف Trump Phone Ultra قادم أيضًا؟

أين هاتف ترامب؟ سنواصل الحديث عنه كل أسبوع. لقد...

إنها نهاية عصر أجهزة تلفزيون سوني

لا توجد العديد من شركات التكنولوجيا التي يمكنها أن...

مختبرات الذكاء الاصطناعي تخوض معركة بالسكاكين من أجل السمعة في دافوس

هذا مقتطف من المصادر بواسطة أليكس هيث، نشرة إخبارية...

من غير المستغرب أن يكون تقديم معلومات الرعاية الصحية الخاصة بك إلى برنامج الدردشة الآلي فكرة رهيبة


كل أسبوع، أكثر من 230 مليون شخص اسأل ChatGPT للحصول على نصائح تتعلق بالصحة والعافية، وفقًا لـ OpenAI. الشركة يقول أن الكثيرين يرون أن برنامج الدردشة الآلي “حليف” للمساعدة في التنقل في متاهة التأمين، وتقديم الأوراق، ويصبحوا مناصرين أفضل لأنفسهم. في المقابل، تأمل أن تثق في برنامج الدردشة الخاص بها بتفاصيل حول تشخيصاتك وأدويتك ونتائج الاختبارات والمعلومات الطبية الخاصة الأخرى. ولكن على الرغم من أن التحدث إلى برنامج الدردشة الآلي قد يبدو وكأنه عيادة الطبيب، إلا أنه ليس كذلك. شركات التكنولوجيا ليست ملزمة بنفس الالتزامات التي يفرضها مقدمو الخدمات الطبية. يقول الخبراء الحافة سيكون من الحكمة أن تفكر بعناية فيما إذا كنت تريد تسليم سجلاتك.

تبرز الصحة والعافية بسرعة باعتبارها ساحة معركة رئيسية لمختبرات الذكاء الاصطناعي واختبارًا رئيسيًا لمدى استعداد المستخدمين للترحيب بهذه الأنظمة في حياتهم. في هذا الشهر، قام اثنان من أكبر اللاعبين في الصناعة بدفعة علنية نحو الطب. OpenAI صدر ChatGPT الصحة، وهي علامة تبويب مخصصة داخل ChatGPT مصممة للمستخدمين لطرح الأسئلة المتعلقة بالصحة فيما تقول إنها بيئة أكثر أمانًا وتخصيصًا. أنثروبي قدم كلود للرعاية الصحية، وهو منتج “جاهز لـ HIPAA” يقول إنه يمكن استخدامه من قبل المستشفيات ومقدمي الخدمات الصحية والمستهلكين. (من أبرز الغائبين شركة جوجل، التي يعد برنامج Gemini chatbot الخاص بها واحدًا من أدوات الذكاء الاصطناعي الأكثر كفاءة والأكثر استخدامًا في العالم، على الرغم من أن الشركة فعلت ذلك يعلن تحديث لنموذج الذكاء الاصطناعي الطبي MedGemma للمطورين.)

تشجع OpenAI المستخدمين بشكل نشط على مشاركة المعلومات الحساسة مثل السجلات الطبية ونتائج المختبرات وبيانات الصحة والعافية من تطبيقات مثل Apple Health وPeloton وWeight Watchers وMyFitnessPal مع ChatGPT Health مقابل الحصول على رؤى أعمق. وينص صراحة على أن البيانات الصحية للمستخدمين ستظل سرية ولن يتم استخدامها لتدريب نماذج الذكاء الاصطناعي، وأنه تم اتخاذ الخطوات اللازمة للحفاظ على البيانات آمنة وخاصة. تقول OpenAI إن محادثات ChatGPT Health سيتم إجراؤها أيضًا في جزء منفصل من التطبيق، مع قدرة المستخدمين على عرض أو حذف “الذكريات” الصحية في أي وقت.

إن تأكيدات OpenAI بأنها ستحافظ على أمان بيانات المستخدمين الحساسة قد ساهمت بشكل كبير في إطلاق الشركة منتجًا متطابقًا مع بروتوكولات أمان أكثر صرامة في نفس الوقت تقريبًا مع ChatGPT Health. الأداة، التي تسمى ChatGPT للرعاية الصحية، هي جزء من نطاق أوسع من منتجات تم بيعها لدعم الشركات والمستشفيات والأطباء الذين يعملون مع المرضى مباشرة. تشمل الاستخدامات المقترحة لـ OpenAI تبسيط العمل الإداري مثل صياغة الرسائل السريرية وملخصات الخروج ومساعدة الأطباء على جمع أحدث الأدلة الطبية لتحسين رعاية المرضى. على غرار المنتجات الأخرى على مستوى المؤسسات التي تبيعها الشركة، هناك وسائل حماية أكبر من تلك المقدمة لعامة المستهلكين، وخاصة المستخدمين المجانيين، وتقول OpenAI إن المنتجات مصممة للامتثال لالتزامات الخصوصية المطلوبة للقطاع الطبي. نظرًا للأسماء وتواريخ الإطلاق المتشابهة – تم الإعلان عن ChatGPT للرعاية الصحية في اليوم التالي لـ ChatGPT Health – فمن السهل جدًا الخلط بين الاثنين وافتراض أن المنتج الذي يواجه المستهلك يتمتع بنفس مستوى الحماية مثل المنتج الأكثر توجهاً سريريًا. العديد من الأشخاص الذين تحدثت إليهم عند الإبلاغ عن هذه القصة فعلوا ذلك.

حتى لو كنت تثق في تعهد الشركة بحماية بياناتك… فقد تغير رأيها.

ومع ذلك، أيًا كانت الضمانات الأمنية التي نتخذها، فهي بعيدة كل البعد عن كونها مانعة للماء. يقول الخبراء إن مستخدمي أدوات مثل ChatGPT Health غالبًا ما يكون لديهم القليل من الحماية ضد الانتهاكات أو الاستخدام غير المصرح به بما يتجاوز ما هو منصوص عليه في شروط الاستخدام وسياسات الخصوصية. الحافة. نظرًا لأن معظم الولايات لم تسن قوانين خصوصية شاملة – ولا يوجد قانون فيدرالي شامل للخصوصية – فإن حماية البيانات لأدوات الذكاء الاصطناعي مثل ChatGPT Health “تعتمد إلى حد كبير على ما تعد به الشركات في سياسات الخصوصية وشروط الاستخدام الخاصة بها”، كما تقول سارة جيرك، أستاذة القانون في جامعة إلينوي أوربانا شامبين.

حتى لو كنت تثق في تعهد الشركة بحماية بياناتك – تقول OpenAI إنها تقوم بتشفير البيانات الصحية بشكل افتراضي – فقد تغير رأيها. تشرح هانا فان كولفسشوتن، الباحثة في قانون الصحة الرقمية بجامعة بازل في سويسرا، قائلة: “على الرغم من أن ChatGPT تنص في شروط الاستخدام الحالية الخاصة بها على أنها ستحافظ على سرية هذه البيانات ولن تستخدمها لتدريب نماذجها، إلا أنك لست محميًا بموجب القانون، ويُسمح لها بتغيير شروط الاستخدام بمرور الوقت”. “عليك أن تثق في أن ChatGPT لا يفعل ذلك.” ويتفق معه كارمل شاشار، أستاذ القانون المساعد في كلية الحقوق بجامعة هارفارد، قائلا: “هناك حماية محدودة للغاية. وبعضها مجرد كلامهم، ولكن يمكنهم دائما العودة وتغيير ممارسات الخصوصية الخاصة بهم”.

يقول شاشار إن التأكيدات بأن المنتج متوافق مع قوانين حماية البيانات التي تحكم قطاع الرعاية الصحية مثل قانون قابلية نقل التأمين الصحي والمساءلة، أو HIPAA، لا ينبغي أن توفر الكثير من الراحة أيضًا. وتشرح أنه على الرغم من كونه دليلًا رائعًا، إلا أنه ليس هناك الكثير على المحك إذا فشلت الشركة التي تمتثل طوعًا في القيام بذلك. الامتثال طوعا ليس هو نفسه الالتزام. “إن قيمة HIPAA هي أنه إذا أخطأت، فهناك إنفاذ”.

هناك سبب يجعل الطب مجالًا شديد التنظيم

إنها أكثر من مجرد الخصوصية. هناك سبب وراء كون الطب مجالًا خاضعًا لرقابة شديدة، وهو أن الأخطاء يمكن أن تكون خطيرة، بل ومميتة. لا يوجد نقص في الأمثلة التي توضح أن روبوتات الدردشة تنشر بثقة معلومات صحية كاذبة أو مضللة، كما هو الحال عندما يقوم رجل تطورت حالة نادرة بعد أن سأل ChatGPT عن إزالة الملح من نظامه الغذائي، اقترح عليه برنامج الدردشة الآلي استبدال الملح ببروميد الصوديوم، والذي كان تاريخيا يستخدم كمسكن. أو عند النظرات العامة حول الذكاء الاصطناعي من Google نصح بشكل خاطئ يجب على الأشخاص المصابين بسرطان البنكرياس تجنب الأطعمة الغنية بالدهون، وهو عكس ما ينبغي عليهم فعله تمامًا.

ولمعالجة هذه المشكلة، تنص شركة OpenAI صراحةً على أن أداة مواجهة المستهلك الخاصة بها مصممة للاستخدام بالتعاون الوثيق مع الأطباء وليست مخصصة للتشخيص والعلاج. يتم تصنيف الأدوات المصممة للتشخيص والعلاج كأجهزة طبية وتخضع لأنظمة أكثر صرامة، مثل التجارب السريرية لإثبات فعاليتها ومراقبة السلامة بمجرد نشرها. على الرغم من أن OpenAI تدرك تمامًا وبشكل علني أن إحدى حالات الاستخدام الرئيسية لـ ChatGPT هي دعم صحة المستخدمين ورفاهيتهم – تذكر 230 مليون شخص يطلبون النصيحة كل أسبوع – فإن تأكيد الشركة على أنه ليس المقصود منه أن يكون جهازًا طبيًا له وزن كبير لدى المنظمين، كما يوضح جيرك. وتقول: “إن الاستخدام المقصود المعلن من قبل الشركة المصنعة هو عامل رئيسي في تصنيف الأجهزة الطبية”، مما يعني أن الشركات التي تقول إن الأدوات ليست للاستخدام الطبي سوف تفلت من الرقابة إلى حد كبير حتى لو تم استخدام المنتجات للأغراض الطبية. وهو يسلط الضوء على التحديات التنظيمية التي تطرحها التكنولوجيا مثل برامج الدردشة الآلية.

في الوقت الحالي، على الأقل، يُبقي إخلاء المسؤولية هذا ChatGPT Health بعيدًا عن نطاق الجهات التنظيمية مثل إدارة الغذاء والدواء، لكن يقول فان كولفسشوتن إنه من المعقول تمامًا التساؤل عما إذا كان ينبغي حقًا تصنيف أدوات مثل هذه كجهاز طبي وتنظيمها على هذا النحو أم لا. وتوضح أنه من المهم أن ننظر إلى كيفية استخدامها، وكذلك ما تقوله الشركة. عند الإعلان عن المنتج، اقترحت OpenAI أن يتمكن الأشخاص من استخدام ChatGPT Health لتفسير نتائج المختبر، أو تتبع السلوك الصحي، أو مساعدتهم على التفكير من خلال قرارات العلاج. إذا كان أحد المنتجات يفعل ذلك، فيمكن للمرء أن يجادل بشكل معقول بأنه قد يندرج تحت التعريف الأمريكي للجهاز الطبي، كما تقول، مما يشير إلى أن الإطار التنظيمي الأقوى في أوروبا قد يكون السبب وراء عدم توفره في المنطقة حتى الآن.

“عندما يشعر النظام بأنه شخصي ولديه هالة من السلطة، فإن إخلاء المسؤولية الطبية لن يشكل بالضرورة تحديًا لثقة الناس في النظام.”

على الرغم من الادعاء بعدم استخدام ChatGPT للتشخيص أو العلاج، فقد بذلت OpenAI قدرًا كبيرًا من الجهد لإثبات أن ChatGPT أداة جميلة. طبيب قادر وتشجيع المستخدمين على النقر عليه للاستعلامات الصحية. سلطت الشركة الضوء على الصحة كحالة استخدام رئيسية عندما إطلاق جي بي تي-5، والرئيس التنفيذي سام التمان حتى دعت مريضة بالسرطان وزوجها على خشبة المسرح لمناقشة كيف ساعدتها الأداة على فهم التشخيص. وتقول الشركة إنها تقوم بتقييم براعة ChatGPT الطبية وفقًا للمعايير التي طورتها بنفسها مع أكثر من 260 طبيبًا في عشرات التخصصات. هيلث بنش، الذي “يختبر مدى جودة أداء نماذج الذكاء الاصطناعي في سيناريوهات صحية واقعية”. لاحظ النقاد أنها ليست شفافة للغاية. تشير دراسات أخرى – غالبًا ما تكون صغيرة أو محدودة أو تديرها الشركة نفسها – إلى الإمكانات الطبية لـ ChatGPT أيضًا، مما يوضح أنه في بعض الحالات يمكنه ذلك. اجتياز اختبارات الترخيص الطبي, التواصل بشكل أفضل مع المرضى، و يتفوق على الأطباء في تشخيص المرض، وكذلك مساعدة الأطباء في صنعه أخطاء أقل عندما تستخدم كأداة.

يقول فان كولفسشوتن إن جهود OpenAI لتقديم ChatGPT Health كمصدر موثوق للمعلومات الصحية يمكن أن تقوض أيضًا أي إخلاء مسؤولية يتضمن إخبار المستخدمين بعدم استخدامه للأغراض الطبية. “عندما يشعر النظام بأنه شخصي ولديه هالة من السلطة، فإن إخلاء المسؤولية الطبية لن يشكل بالضرورة تحديًا لثقة الناس في النظام.”

وتأمل شركات مثل OpenAI وAnthropic أن تحظى بهذه الثقة بينما تتنافس على الصدارة فيما تعتبره السوق الكبيرة التالية للذكاء الاصطناعي. تشير الأرقام التي توضح عدد الأشخاص الذين يستخدمون بالفعل روبوتات الدردشة المدعمة بالذكاء الاصطناعي لأغراض صحية إلى أنهم ربما يكونون على علم بشيء ما، وبالنظر إلى ذلك التفاوتات الصحية الصارخة والصعوبات التي يواجهها الكثيرون الوصول حتى إلى الرعاية الأساسية، قد يكون هذا أمرًا جيدًا. على الأقل، يمكن أن يكون الأمر كذلك، إذا كانت هذه الثقة في وضع جيد. نحن نثق في معلوماتنا الخاصة مع مقدمي الرعاية الصحية لأن المهنة اكتسبت هذه الثقة. ليس من الواضح بعد ما إذا كانت الصناعة التي تتمتع بسمعة طيبة في التحرك السريع وكسر الأشياء قد حصلت على نفس الشيء.

متابعة المواضيع والمؤلفين من هذه القصة لرؤية المزيد من هذا القبيل في خلاصة صفحتك الرئيسية المخصصة وتلقي تحديثات البريد الإلكتروني.




المصدر

spot_imgspot_img