-->

إعلان بالهواتف فقط

إعلان بالحواسيب فقط

يُعدّ ChatGPT أداة شائعة هذه الأيام لحلّ الشكوك حول مواضيع عديدة، ومن أكثرها شيوعًا الصحة. مع ذلك، فإنّ مشاركة المعلومات الطبية الشخصية على منصات مثل منصة OpenAI قد تُشكّل خطرًا كبيرًا على الخصوصية، وهو ما يجهله الكثيرون. وكما أوضحت شركة ASHO الكاتالونية المتخصصة في تكنولوجيا الصحة، تكمن المشكلة الرئيسية في أنّ السجلات الطبية محمية ضمن أنظمة الرعاية الصحية الرسمية.
في المستشفيات والمراكز الصحية، تُخزّن البيانات في بيئات آمنة، تخضع لأنظمة صارمة للغاية مثل اللائحة العامة لحماية البيانات (GDPR) وإطار الأمن القومي (ENS). وهذا يضمن تحديد من يُمكنه الوصول إلى المعلومات ولأيّ غرض.
عندما يُدخل الشخص تاريخه الطبي طواعيةً في برنامج ChatGPT أو  أي منصة ذكاء اصطناعي خارجية، فإن هذه الحماية تتلاشى. وتؤكد الجمعية الأمريكية لمسؤولي الصحة (ASHO) أن البيانات تخرج عن سيطرة نظام الرعاية الصحية وتُدار خارج الأنظمة التي تضمن أمنها وسريتها.
علاوة على ذلك، وبما أنها شركة متعددة الجنسيات تقدم خدماتها في العديد من البلدان، فإن الضمانات نفسها المطبقة في نظام الرعاية الصحية في البلد التي تعيش فيه لا تنطبق عليها. ومن الجوانب الأخرى التي يجب مراعاتها فقدان السيطرة على المعلومات. بمعنى آخر، إذا تمت مشاركة البيانات طواعيةً، فإن المنصة نفسها تتولى إدارتها، دون أن تتمكن المستشفيات أو العاملون في مجال الرعاية الصحية من التدخل أو حمايتها.
بالطبع، من الضروري التذكير بأنه، بغض النظر عن مخاوف الخصوصية، فإنّ برامج مثل ChatGPT والذكاء الاصطناعي ليست معصومة من الخطأ: فقد ترتكب أخطاءً أو تُقدّم إجابات غير دقيقة، ولا ينبغي لها أبدًا أن تحلّ محلّ الطبيب المختص. يجب دائمًا إجراء جميع الاستشارات والتشخيصات في بيئة سريرية مناسبة، وليس تحليلها بواسطة الذكاء الاصطناعي نيابةً عنّا.

ليست هناك تعليقات:

إرسال تعليق

جميع الحقوق محفوظة ل حوحو للمعلوميات 2025
تصميم و تكويد : بيكود