광고환영

광고문의환영

حين يصبح الذكاء الاصطناعي «الطبيب الأول» في ذهن الناس: أزمة ثقة تهز العلاقة بين المريض والمعلومة

حين يصبح الذكاء الاصطناعي «الطبيب الأول» في ذهن الناس: أزمة ثقة تهز العلاقة بين المريض والمعلومة

من شاشة الهاتف إلى عيادة افتراضية: ما الذي يتغير؟

لم يعد الذكاء الاصطناعي التوليدي بالنسبة إلى كثيرين مجرد أداة سريعة للبحث عن وصفة طعام أو تلخيص مقال طويل أو كتابة رسالة عمل. في المجال الصحي تحديداً، بدأ هذا الذكاء يتقدم إلى موقع أكثر حساسية وخطورة: موقع «المستشار الأول» الذي يُسأل قبل الطبيب، وأحياناً بدلاً منه. هذه ليست مجرد ملاحظة تقنية عابرة، بل إشارة عميقة إلى تحول في علاقة الناس بالمعلومة الطبية، وبالثقة التي تحكم الصلة بين المريض والطبيب ومؤسسات الصحة العامة.

المؤشر الأبرز الذي يدعو إلى التوقف طويلاً أمام هذه الظاهرة جاء من كوريا الجنوبية، حيث أظهرت بيانات أعلنتها مؤسسة الصحافة الكورية في 15 أبريل/نيسان أن 58.3% من البالغين بين العشرينات والستينات يرون أن البحث عن المعلومات الصحية أو تلقي الاستشارة عبر الذكاء الاصطناعي التوليدي يمكن أن يحل محل الاستشارة المباشرة والعلاج لدى الطبيب أو طبيب الطب الكوري التقليدي بدرجات متفاوتة. وضمن هذه النسبة، رأى 53.9% أن الإحلال ممكن «إلى حد ما»، بينما قال 4.4% إنه ممكن «إلى حد كبير».

قد يبدو الرقم في ظاهره احتفاءً بالتكنولوجيا، لكنه في باطنه يطرح سؤالاً أكثر ثقلاً: لماذا صار عدد متزايد من الناس مستعداً لتخيّل أن برنامجاً حاسوبياً قادر على أن يشغل جزءاً من مساحة الطبيب؟ في المجتمعات العربية، حيث لا تزال صورة الطبيب مرتبطة بمكانة اجتماعية ومعنوية راسخة، قد يبدو هذا التحول أقل حدة للوهلة الأولى. لكن من يتابع ما يجري على مجموعات تطبيقات المراسلة، ومنصات الفيديو القصير، وصفحات «النصائح الصحية» غير الموثقة، يدرك أن المسألة ليست بعيدة عنا. نحن أيضاً نعيش زمن «الاستشارة السريعة» و«تشخيص التعليقات» و«علاج الترند».

في هذا المشهد، لا يعود السؤال الأساسي: هل الذكاء الاصطناعي مفيد أم لا؟ بل يصبح: ماذا يحدث لنظام الثقة الصحي عندما تتراجع سلطة الطبيب أمام سيل من الإجابات السريعة والمقنعة شكلاً؟ وكيف يمكن أن نقرأ هذا التحول من دون الوقوع في فخ التهويل أو الرفض المسبق للتكنولوجيا؟

الأرقام لا تتحدث عن التقنية فقط.. بل عن أزمة ثقة بالمعلومات

المعطى الأكثر إثارة للقلق في الدراسة الكورية ليس فقط أن 58.3% يعتقدون بإمكان حلول الذكاء الاصطناعي محل الطبيب في بعض الجوانب، بل إن 85.8% من المشاركين قالوا إنهم مروا بتجربة شعروا فيها بأن المعلومات الصحية التي صادفوها كانت غير دقيقة أو مبالغاً فيها، فيما قال 76.8% إنهم اختبروا الارتباك بسبب تناقض المعلومات الصحية التي تصلهم. هنا تتكشف صورة أكثر عمقاً: المشكلة لا تتعلق باندفاع الناس إلى التكنولوجيا حباً بها فحسب، بل أيضاً بعجز البيئة المعلوماتية الحالية عن منحهم اليقين.

هذا الرقم الأخير يذكّرنا بما نعيشه عربياً في كثير من الملفات الصحية. يكفي أن يتابع القارئ ما يقال عن الحميات الغذائية، أو المكملات، أو الهرمونات، أو علاجات البشرة، أو الأمراض المزمنة، حتى يدرك حجم الفوضى. في الصباح نصيحة تؤكد أن القهوة تضر القلب، وبعد ساعات يظهر محتوى آخر يعدّها حامية للشرايين. فيديو يزعم أن عرضاً معيناً دليل قطعي على مرض خطير، ومنشور آخر يهوّن من العلامة نفسها ويصفها بأنها «توتر فقط». وفي ظل هذا الضجيج، يصبح الشخص العادي، لا سيما إذا كان قلقاً على صحته أو صحة أحد أفراد أسرته، أكثر قابلية للتعلق بأي إجابة تبدو مرتبة وواثقة.

من هنا، يمكن فهم صعود الذكاء الاصطناعي بوصفه أيضاً نتيجة لـ«فراغ ثقة». حين يشعر الناس أن محركات البحث التقليدية تقذفهم في متاهة من الروابط التجارية والعناوين المثيرة، وأن وسائل التواصل الاجتماعي تكافئ أكثر المحتويات إثارة لا أكثرها دقة، فإن أداة قادرة على تلخيص الفوضى في إجابة لغوية أنيقة تبدو كأنها طوق نجاة. لكنها قد تكون، في الوقت نفسه، مصدر خطر جديد إذا أُخذت إجاباتها بوصفها بديلاً عن التقييم الطبي الحقيقي.

المطلوب هنا قراءة الأرقام بعين الصحافة المهنية، لا بعين الإثارة. فهذه النسب لا تعني ببساطة أن الناس «استغنوا عن الأطباء»، كما لا تعني أن الذكاء الاصطناعي صار طبيباً فعلاً. إنها تكشف، قبل كل شيء، أن الوصول إلى المعلومات لم يعد هو المشكلة الأولى، وأن التمييز بين المعلومة الموثوقة والمعلومة المضللة صار أكثر صعوبة. وهذه معادلة بالغة الحساسية لأن الصحة، بخلاف كثير من المجالات الأخرى، لا تحتمل هامش خطأ واسعاً.

لماذا يسبق الذكاء الاصطناعي الطبيب أحياناً؟

هناك أسباب عملية مفهومة تدفع الناس إلى سؤال الذكاء الاصطناعي قبل التوجه إلى الطبيب. أول هذه الأسباب هو الإتاحة. فالذكاء الاصطناعي موجود على مدار الساعة، لا يحتاج إلى موعد، ولا إلى غرفة انتظار، ولا إلى ميزانية استشارة. يستطيع المستخدم أن يسأله في منتصف الليل عن ألم مفاجئ، أو عن نتيجة تحليل لم يفهمها، أو عن التخصص الطبي الذي ينبغي أن يقصده. وفي المجتمعات العربية، حيث قد يواجه بعض المرضى صعوبة في الوصول السريع إلى خدمة صحية متخصصة، أو يتحرجون من الحديث عن أعراض معينة، تبدو هذه الإتاحة مغرية جداً.

السبب الثاني هو اللغة ذاتها. الذكاء الاصطناعي يجيب بلغة مبسطة، ويعيد الشرح عند الطلب، ويحوّل المصطلح الطبي المعقد إلى عبارة يومية. كثير من المرضى لا ينزعجون من الطبيب بقدر ما ينزعجون من شعورهم بأنهم لم يفهموا ما قيل لهم. وهنا يظهر الذكاء الاصطناعي كأنه «مترجم» بين عالم الطب وعالم الناس. وفي الثقافة العربية، حيث يقال كثيراً إن «نصف العلاج كلمة طيبة»، قد يجد البعض في الأسلوب الهادئ والمتجاوب لهذه الأدوات ما يفتقده أحياناً في اللقاءات السريعة داخل العيادات المكتظة.

أما السبب الثالث فهو أن الذكاء الاصطناعي لا يحاكم ولا يسخر ولا يضيق بالأسئلة المكررة. يمكن للمستخدم أن يسأل عن أعراض يعتبرها محرجة، أو عن شكوك يخشى أن تبدو «ساذجة»، من دون أن يشعر بالحرج الاجتماعي. هذا عامل مهم، خصوصاً في قضايا الصحة النفسية، والصحة الإنجابية، والأعراض المرتبطة بالجسد والخصوصية. ولعل من يعرف طبيعة مجتمعاتنا يدرك أن كثيرين يفضلون السؤال خلف الشاشة أولاً، لا لأنهم لا يحترمون الطب، بل لأنهم يريدون مساحة آمنة قبل المواجهة المباشرة.

لكن هذا الجانب المريح يحمل بذرة الإشكال نفسه. ما يبدأ بصفته «مرحلة تمهيدية» قبل زيارة الطبيب قد يتمدد حتى يصبح بديلاً عنها. وهنا تنتقل الأداة من دور المساعد إلى دور المتصدر، ومن وظيفة التهيئة إلى وظيفة التقييم والطمأنة أو التخويف. وهذه النقلة هي الأكثر حساسية، لأن الطب السريري لا يقوم على جمع معلومات متناثرة فقط، بل على قراءة سياق كامل: تاريخ مرضي، أدوية حالية، أمراض مزمنة، عوامل وراثية، مؤشرات جسدية، فحوصات، وعلامات قد لا يلتقطها النص أصلاً.

المعلومة الصحية ليست كأي معلومة

قد يسأل البعض: ما الفرق إذا أخطأ الذكاء الاصطناعي في مسألة صحية ما، ما دام الناس يعلمون أنه ليس طبيباً؟ الفارق أن المعلومة الصحية تختلف عن كثير من أنواع المحتوى الأخرى. الخطأ فيها قد لا ينتهي عند سوء فهم، بل قد يتحول إلى تأخر في التشخيص، أو إساءة استعمال دواء، أو تجاهل عرض إسعافي، أو هلع غير مبرر يدفع إلى مسارات طبية خاطئة. وحين يتعلق الأمر بالأطفال، وكبار السن، والحوامل، ومرضى القلب والسكري والسرطان، يصبح هامش الخطأ أضيق بكثير.

في العالم العربي، عشنا خلال السنوات الماضية أمثلة صارخة على أثر التضليل الصحي. خلال جائحة كورونا، انتشرت وصفات شعبية زُعم أنها تقي من العدوى أو تعالجها، وروّج بعض المؤثرين لخلطات ومكملات بلا أساس علمي، وتداولت مجموعات عائلية رسائل صوتية منسوبة إلى «استشاري كبير» أو «خبير عالمي» لم يكن لها أي سند موثوق. لم تكن المشكلة أن الناس يبحثون عن النجاة، بل أن القلق الجماعي جعلهم أكثر عرضة لتصديق ما يمنحهم يقيناً سريعاً، ولو كان زائفاً.

اليوم، مع الذكاء الاصطناعي، يصبح التضليل أكثر تعقيداً لأنه لا يأتي دائماً في صورة شائعة ركيكة أو ادعاء فج. قد يأتي في صياغة منطقية ومرتبة، تستند إلى لغة علمية مقنعة، وتتضمن احتمالات ومقارنات تجعلها أقرب في ذهن المستخدم إلى «الرأي الطبي». الخطر هنا ليس فقط في الخطأ الصريح، بل في «الخطأ المعقول» الذي يبدو قابلاً للتصديق، وفي الإجابة التي تعطي انطباعاً عالياً بالثقة من دون أن تملك مسؤولية الطبيب أو قدرة الفحص أو الاطلاع على الحالة كاملة.

الذكاء الاصطناعي يستطيع أن يشرح ما هو شائع عن أعراض معينة، وأن يقترح على المستخدم متى ينبغي طلب الرعاية العاجلة، وأن يساعد في فهم مصطلحات وتقارير. وهذه وظائف مفيدة إذا استُخدمت ضمن حدودها. لكنه لا يلمس الجلد، ولا يلاحظ شحوب الوجه، ولا يسمع تغير نبرة التنفس، ولا يقدّر ألم البطن عند الجس، ولا يميز بسهولة بين عرض بسيط وبداية حالة إسعافية إلا في حدود ما يُكتب له. وبين «الشرح» و«الحكم السريري» مسافة لا يجوز محوها بدافع الانبهار التقني.

العلاقة بين الطبيب والمريض: من فقدان الهيبة إلى فقدان الثقة

المسألة لا تتعلق فقط بدقة المعلومات، بل بطبيعة العلاقة الإنسانية داخل المنظومة الصحية. الطبيب في جوهر عمله ليس ماكينة أجوبة، بل صاحب تقدير مهني ومسؤولية أخلاقية وقانونية. الاستشارة الطبية ليست فقرة معلوماتية منفصلة، بل عملية تجمع الاستماع والفحص والتمييز بين الأخطر والأقل خطراً، ثم اتخاذ قرار يمكن الدفاع عنه علمياً ومهنياً. لهذا فإن اختزال الطبيب في مجرد «مزود معرفة» يظلم جوهر الممارسة الطبية.

ومع ذلك، لا يمكن إنكار أن بعض البيئات العلاجية ساهمت، من حيث تدري أو لا تدري، في إضعاف الثقة. حين يخرج المريض من العيادة بعد دقائق قليلة من دون أن يفهم تشخيصه جيداً، أو حين يشعر أن أسئلته أُهملت، أو حين يواجه لغة جافة لا تراعي قلقه، فإنه يبحث عمن يمنحه وقتاً أطول وإن لم يكن بشرياً. وهذه نقطة تستحق التأمل في العالم العربي أيضاً. فنحن نملك أطباء أكفاء، لكننا نملك كذلك تحديات تتعلق بالازدحام، وضيق الوقت، وتفاوت مهارات التواصل، ووجود فجوة معرفية بين الخطاب الطبي المتخصص وما يفهمه المريض.

من هنا، فإن صعود الذكاء الاصطناعي قد يكون مرآة تكشف ما ينقص العلاقة العلاجية بقدر ما يكشف ما تستطيع التكنولوجيا تقديمه. حين يفضّل شخص ما سؤال برنامج قبل سؤال الطبيب، فليس بالضرورة لأنه بات يعتقد أن الآلة أعلم من الإنسان في المطلق، بل ربما لأنه يفتش عن شرح، وطمأنة، وإحساس بالسيطرة على القلق. المشكلة أن هذا الإحساس قد يكون مضللاً إذا لم يقترن بمرجعية مهنية واضحة.

الباحثون في الدراسة الكورية أشاروا إلى أن انتشار الذكاء الاصطناعي التوليدي يغيّر جذرياً طريقة استخدام المعلومات الصحية، وأنه يرفع سهولة الوصول والراحة، لكنه يبرز في الوقت نفسه قضايا الدقة والموثوقية وحماية البيانات الحساسة وإمكان الحلول محل الرعاية المتخصصة على نحو ينطوي على مخاطر. هذا الاستنتاج متوازن، لأنه لا يدعو إلى حظر الذكاء الاصطناعي ولا إلى تسليمه مفاتيح المجال الصحي، بل يذكّر بأن القضية الأساسية هي «حدود الاستخدام الآمن».

ما الذي تقوله نسبة 58.3%.. وما الذي لا تقوله؟

الخطأ المهني يقع حين تُستخدم الأرقام لإنتاج عناوين صادمة من قبيل: «أغلبية الناس لم تعد بحاجة إلى الأطباء». هذا استنتاج لا تدعمه البيانات. ما تقوله النسبة الكورية هو أن 58.3% يرون وجود قدرة ما لدى الذكاء الاصطناعي على الحلول محل الاستشارة أو العلاج المباشر بدرجات مختلفة. لكنها لا تقول إن هؤلاء سيتخلون فعلاً عن المستشفيات عند المرض الخطير، ولا إنها تعني أن الناس لم يعودوا يميزون بين أداة معلوماتية وبين الممارسة الطبية الكاملة.

مع ذلك، فالنسبة مهمة لأنها تكشف تحوّلاً في الإدراك العام. لقد أصبح من المقبول في وعي شريحة واسعة أن الذكاء الاصطناعي ليس مجرد أرشيف إجابات، بل طرف يمكن أن يدخل في منطقة كانت حتى وقت قريب محصورة في صاحب المعطف الأبيض. وهذا التحول الإدراكي مؤثر جداً، لأن السلوك الصحي يبدأ غالباً من التصور الذهني: ماذا أفعل أولاً؟ مَن أصدق؟ كيف أفسر العرض الذي أشعر به؟ وهل أحتاج فعلاً إلى الذهاب للطبيب أم أكتفي بما قرأته وسمعته؟

على المستوى العملي، يكفي أن يذهب المريض إلى العيادة وهو مقتنع مسبقاً، بناء على ما قرأه من الذكاء الاصطناعي أو غيره، بأنه مصاب بحالة محددة أو أنه يحتاج علاجاً بعينه، حتى يتغير شكل الحوار الطبي كله. يصبح الطبيب مطالباً ليس فقط بالتشخيص، بل أيضاً بتفكيك «التشخيص الرقمي المسبق» الذي وصل به المريض. وهذا ما نشهده بالفعل في أنحاء كثيرة من العالم: مرضى يأتون إلى العيادة مسلحين بصفحات مطبوعة، أو لقطات شاشة، أو نتائج محادثات مع تطبيقات ذكية، ويطلبون من الطبيب إما التصديق عليها أو مناقضتها.

من هذه الزاوية، يمكن النظر إلى الذكاء الاصطناعي باعتباره عاملاً يعيد رسم نقطة البداية في العلاقة العلاجية. قبل سنوات كان المريض يسأل الطبيب: «ما الذي أعانيه؟». اليوم قد يدخل وهو يقول: «أعتقد أن لدي كذا، والذكاء الاصطناعي قال إن الاحتمال الأكبر هو كذا». وهذا تغيّر ليس بسيطاً، لأنه ينقل الطبيب من موقع المصدر الأول للمعلومة إلى موقع المصحح أو المراجع أو صاحب الكلمة الأخيرة. وإذا كانت الثقة بين الطرفين ضعيفة، فقد يتحول هذا التبدل إلى صدام مستتر.

السياق العربي: بيئة خصبة للالتباس والحاجة معاً

للقارئ العربي خصوصية ينبغي عدم تجاهلها. فالمنطقة العربية تعيش تداخلاً معقداً بين الطب الحديث، والخبرات الشعبية، والنصائح المتوارثة، وسلطة المؤثرين الرقميين، ومحتوى اليوتيوب و«الريلز»، وأحياناً خطاب ديني أو اجتماعي يُستخدم لتبرير بعض الممارسات الصحية أو رفضها. هذا التداخل قد يجعل الذكاء الاصطناعي أكثر تأثيراً، لأنه يستطيع أن يقدّم نفسه وسيطاً يختصر هذا التشابك في إجابة واحدة. لكنه قد يزيد الالتباس أيضاً إذا كان المستخدم لا يملك أدوات كافية لتمييز المصدر الصحيح من المغلوط.

خذ مثالاً بسيطاً من الحياة اليومية العربية: شخص يشعر بصداع متكرر وإرهاق. بدلاً من أن يبدأ بفحص ضغط الدم أو مراجعة الطبيب أو إجراء تحاليل أولية، قد يدخل في دوامة تفسيرات تبدأ بنقص الفيتامينات، وتمر بالحسد والتوتر وقلة النوم، وتنتهي بأمراض خطيرة أو بعلاجات عشوائية. وإذا أضيف إلى هذه الدوامة ذكاء اصطناعي يعطي إجابة واثقة غير مبنية على فحص أو تاريخ طبي كامل، فقد يجد نفسه مطمئناً على نحو خاطئ أو مذعوراً بلا مبرر.

وفي قضايا مثل الصحة النفسية، تبدو الحاجة إلى أدوات مساعدة أكبر من أي وقت مضى. كثيرون في مجتمعاتنا لا يزالون يترددون في زيارة المختص النفسي بسبب الوصمة الاجتماعية. وهنا قد يلجأون إلى الذكاء الاصطناعي للحديث عن القلق أو الأرق أو الأفكار السوداوية. من حيث المبدأ، قد يوفّر ذلك مساحة أولية للتعبير، لكن الخطر يكمن في أن يتحول «التنفيس الرقمي» إلى بديل عن المساعدة المهنية، خصوصاً في الحالات التي تتطلب تدخلاً عاجلاً أو خطة علاجية متكاملة.

لذلك فإن النقاش العربي حول الذكاء الاصطناعي في الصحة يجب ألا ينحصر في سؤال التكنولوجيا وحدها، بل في بنية الثقافة الصحية نفسها: كيف يقرأ الناس الأعراض؟ كيف يثقون بالمصادر؟ كيف يتعاملون مع الشائعة؟ وهل لديهم قدرة على فهم أن النصيحة الطبية العامة لا تساوي تشخيصاً شخصياً؟ من دون هذا النقاش، سنبقى بين تطرفين: تطرف يمجّد التقنية كأنها الخلاص، وتطرف يرفضها كأنها شر مطلق.

بين الرأي والخبر: كيف ينبغي أن نتعامل مع الظاهرة؟

في حدود الوقائع المتاحة، يمكن القول إن الذكاء الاصطناعي صار جزءاً من المشهد الصحي المعلوماتي، ولن يعود إلى الوراء. من غير الواقعي التعامل معه بوصفه موجة عابرة. لكن من غير المسؤول أيضاً التعامل معه بوصفه بديلاً مكتملاً للرعاية الطبية. والرأي الذي أتبناه هنا، وأميّزه بوضوح عن الخبر، هو أن الخطر الحقيقي لا يكمن في وجود الذكاء الاصطناعي نفسه، بل في غياب ثقافة عامة تحدد مكانه الصحيح وحدوده الصارمة.

ما يحتاجه الجمهور العربي ليس خطاباً تخويفياً يقول له: «لا تسألوا الذكاء الاصطناعي أبداً»، لأن الناس سيسألونه على أي حال. وما يحتاجه أيضاً ليس خطاباً دعائياً يردد أن التقنية ستجعل الطبيب أقل ضرورة، لأن هذا يختزل الطب في معلومات متناثرة ويغفل عنصر الحكم والمسؤولية. المطلوب هو خطاب مهني واضح: يمكن استخدام هذه الأدوات لفهم المصطلحات، وترتيب الأسئلة قبل الزيارة، ومعرفة متى تستدعي الأعراض رعاية عاجلة، لكن لا يجوز اعتبارها تشخيصاً نهائياً أو وصفة علاجية شخصية أو بديلاً عن المتابعة السريرية.

ومن المهم كذلك أن تتطور مهارات التواصل داخل المؤسسات الصحية نفسها. إذا كانت التكنولوجيا تربح ثقة الناس لأنها تشرح بهدوء وتعيد الصياغة وتمنح المريض شعوراً بأنه مسموع، فإن على القطاع الصحي أن يستفيد من هذا الدرس. تحسين لغة التواصل الطبي، وتبسيط التقارير، وتوفير مواد توعوية دقيقة بلغة عربية سليمة ومفهومة، كلها إجراءات لا تقل أهمية عن أي تطور تقني. فالثقة لا تُستعاد بالشعارات، بل بتجربة يشعر فيها المريض أن الطبيب شريك لا خصم، وأن المؤسسة الصحية تشرح له ولا تكتفي بإصدار الأحكام.

كما أن حماية الجمهور من التضليل الصحي تستدعي دوراً إعلامياً أكثر جدية. الصحافة الصحية العربية مطالبة بأن تذهب أبعد من نقل الدراسات وعناوينها الجذابة، إلى شرح ما تعنيه الأرقام وما لا تعنيه، وإلى مساءلة المحتوى الصحي المنتشر على المنصات، وإلى التفريق الواضح بين النصيحة العامة والتوصية الطبية الفردية. ففي زمن الذكاء الاصطناعي، تصبح قيمة الصحافة المهنية أكبر، لا أقل، لأنها تساعد الناس على قراءة المعرفة وسط الضجيج.

الثقة هي خط الدفاع الأخير

في النهاية، لا يتعلق الأمر بمنافسة بين الطبيب والآلة على كسب المعركة الرمزية. القضية الأعمق هي: أين يضع الناس ثقتهم عندما يمرضون؟ في المجال الصحي، الثقة ليست ترفاً أخلاقياً، بل جزء من السلامة العامة. فإذا انهارت الثقة بالمعلومة الموثوقة، أو تساوت في ذهن الناس إجابة الطبيب مع إجابة خوارزمية أو منشور مجهول، فإن المجتمع كله يصبح أكثر هشاشة أمام التضليل والارتباك والتأخر في طلب العلاج المناسب.

الأرقام الكورية تفتح نافذة مهمة على مستقبل قد يبدو بعيداً، لكنه في الحقيقة يطرق أبوابنا بالفعل. 58.3% يرون إمكاناً للحلول محل الطبيب في بعض الجوانب، و85.8% اختبروا معلومات صحية شعروا بأنها غير دقيقة أو مبالغ فيها، و76.8% عاشوا حيرة بسبب تناقض المعلومات. هذه ليست أرقاماً عن كوريا وحدها، بل انعكاس لاتجاه عالمي يتشكل في كل مجتمع يتسارع فيه الاعتماد على المنصات الرقمية ويزداد فيه الإرهاق من فوضى المعلومات.

الرهان إذن ليس على وقف التقنية، بل على إعادة بناء سلّم الثقة. أن يعرف الناس أن الذكاء الاصطناعي قد يساعدهم في السؤال، لكنه لا يملك وحده سلطة الجواب النهائي. أن تفهم المؤسسات الصحية أن جودة التواصل لم تعد مسألة شكلية. وأن تعي وسائل الإعلام أن الصحة ليست مجالاً صالحاً للمبالغة أو الاختزال. في تراثنا العربي مقولة متداولة تقول: «اسأل مجرّب ولا تسأل طبيب»، لكنها في زمن الطب الحديث كانت دائماً مقولة ناقصة. واليوم، ربما علينا أن نضيف: لا تسأل خوارزمية وحدها أيضاً. فالطب، في جوهره، ليس مجرد معرفة تُقال، بل مسؤولية تُمارس، وحكم يُتخذ، وثقة تُبنى بصعوبة وتضيع بسرعة.

Source: Original Korean article - Trendy News Korea

إرسال تعليق

0 تعليقات