في المستشفيات والمراكز الصحية، تُخزّن البيانات في بيئات آمنة، تخضع لأنظمة صارمة للغاية مثل اللائحة العامة لحماية البيانات (GDPR) وإطار الأمن القومي (ENS). وهذا يضمن تحديد من يُمكنه الوصول إلى المعلومات ولأيّ غرض.
عندما يُدخل الشخص تاريخه الطبي طواعيةً في برنامج ChatGPT أو أي منصة ذكاء اصطناعي خارجية، فإن هذه الحماية تتلاشى. وتؤكد الجمعية الأمريكية لمسؤولي الصحة (ASHO) أن البيانات تخرج عن سيطرة نظام الرعاية الصحية وتُدار خارج الأنظمة التي تضمن أمنها وسريتها.
علاوة على ذلك، وبما أنها شركة متعددة الجنسيات تقدم خدماتها في العديد من البلدان، فإن الضمانات نفسها المطبقة في نظام الرعاية الصحية في البلد التي تعيش فيه لا تنطبق عليها. ومن الجوانب الأخرى التي يجب مراعاتها فقدان السيطرة على المعلومات. بمعنى آخر، إذا تمت مشاركة البيانات طواعيةً، فإن المنصة نفسها تتولى إدارتها، دون أن تتمكن المستشفيات أو العاملون في مجال الرعاية الصحية من التدخل أو حمايتها.
بالطبع، من الضروري التذكير بأنه، بغض النظر عن مخاوف الخصوصية، فإنّ برامج مثل ChatGPT والذكاء الاصطناعي ليست معصومة من الخطأ: فقد ترتكب أخطاءً أو تُقدّم إجابات غير دقيقة، ولا ينبغي لها أبدًا أن تحلّ محلّ الطبيب المختص. يجب دائمًا إجراء جميع الاستشارات والتشخيصات في بيئة سريرية مناسبة، وليس تحليلها بواسطة الذكاء الاصطناعي نيابةً عنّا.
ليست هناك تعليقات:
إرسال تعليق