Καμπανάκι ΠΟΥ για AI στην υγεία – Λιγότερες από μία στις 10 χώρες με εθνική στρατηγική και μέτρα προστασίας
Με ταχύτατους ρυθμούς προχωρά η Ευρώπη στην υιοθέτηση της AI στην υγειονομική περίθαλψη, ωστόσο – όπως προειδοποιεί σε έκθεσή του ο Παγκόσμιος Οργανισμός Υγείας (ΠΟΥ) – αυτό γίνεται χωρίς να έχουν εξασφαλιστεί τα απαραίτητα μέτρα προστασίας για ασθενείς και προσωπικό.
Η έλλειψη απαραίτητων ασφαλιστικών δικλείδων ενδέχεται να εντείνει τις ανισότητες και τον κίνδυνο ιατρικών λαθών
Παρά τη ραγδαία εξάπλωση των εργαλείων τεχνητής νοημοσύνης, η ρύθμιση, η χρηματοδότηση και το νομικό πλαίσιο παραμένουν ελλιπή. Αν και η Ευρώπη φαίνεται να μεταμορφώνει τον τομέα υγείας της, υποσχόμενη καλύτερη φροντίδα και μειωμένη πίεση στο προσωπικό, ωστόσο παρατηρείται απουσία κατάλληλων δικλείδων ασφαλείας.
Ενδεικτικό της κατάστασης είναι ότι μόλις τέσσερις χώρες από τις 50 που αναλύθηκαν σε Ευρώπη και Κεντρική Ασία διαθέτουν εθνική στρατηγική AI για την υγεία, γεγονός που – σύμφωνα με τον ΠΟΥ – μπορεί να εντείνει τις ανισότητες και τους κινδύνους λαθών.
Στην επίσημη σελίδα της Ευρωπαϊκής Επιτροπής, από την άλλη, τονίζεται ακριβώς ο στόχος της ισότητας στην υγεία, καθώς «η τεχνητή νοημοσύνη μέσα από κατάλληλες πολιτικές μπορεί να κάνει την περίθαλψη πιο αποτελεσματική, προσβάσιμη και οικονομικά βιώσιμη».
Συγκεκριμένα, η Κομισιόν σημειώνει ότι η τεχνητή νοημοσύνη μπορεί να συμβάλει στην αποτελεσματική κατανομή των πόρων υγειονομικής περίθαλψης και να αντιμετωπίσει ορισμένες από τις πιο κρίσιμες προκλήσεις, όπως η αύξηση του κόστους, οι ανεπάρκειες και η ζήτηση για περίθαλψη υψηλότερης ποιότητας. Επιπλέον, στον τομέα της διάγνωσης, ενισχύει την ακρίβεια και καθιστά δυνατή την έγκαιρη ανίχνευση ανωμαλιών, οδηγώντας συχνά σε λιγότερο επεμβατικές και κοστοβόρες θεραπείες.
Επίσης μπορεί να απλουστεύσει τα διοικητικά καθήκοντα, όπως ο προγραμματισμός ραντεβού ασθενών, η τιμολόγηση και η διαχείριση ηλεκτρονικών φακέλων υγείας, επιτρέποντας στους επαγγελματίες υγείας να παραμένουν επικεντρωμένοι στην περίθαλψη των ασθενών.
Τα ευρήματα της έκθεσης του ΠΟΥ
Σύμφωνα με όσα αναφέρονται στην έκθεση του ΠΟΥ την οποία επικαλείται το Euronews, οι μισές από τις χώρες έχουν εισαγάγει chatbots AI για ασθενείς, ενώ 32 χρησιμοποιούν εργαλεία διαγνωστικής υποβοηθούμενα από τεχνητή νοημοσύνη, κυρίως για απεικόνιση και εντοπισμό παθολογιών. Εξερευνούν επίσης εφαρμογές AI για έλεγχο ασθενών, παθολογία, ψυχική υγεία, ανάλυση δεδομένων, διοικητικά καθήκοντα και σχεδιασμό ανθρώπινου δυναμικού.
Η Ισπανία, για παράδειγμα, δοκιμάζει εργαλεία AI για ενίσχυση της έγκαιρης διάγνωσης, η Φινλανδία χρησιμοποιεί AI για την εκπαίδευση επαγγελματιών υγείας και η Εσθονία την εφαρμόζει στην ανάλυση δεδομένων.
Ωστόσο, παρότι 26 χώρες έχουν ήδη καθορίσει τις προτεραιότητές τους για την τεχνητή νοημοσύνη στην υγεία, μόλις 14 έχουν δεσμεύσει σχετική χρηματοδότηση. Ακόμα λιγότερες διαθέτουν εθνική στρατηγική αποκλειστικά για AI στην υγεία. Αυτές είναι η Ανδόρα, η Φινλανδία, η Σλοβακία και η Σουηδία.
Ανάγκη ο άνθρωπος να βρίσκεται στο επίκεντρο
Ο δρ Χανς Κλουγκ, επικεφαλής του ΠΟΥ Ευρώπης, προειδοποίησε ότι χωρίς «σαφείς στρατηγικές, προστασία προσωπικών δεδομένων, νομικές δικλείδες και επενδύσεις στην ψηφιακή παιδεία», τα εργαλεία αυτά μπορεί να επιδεινώσουν τις ανισότητες υγείας στην Ευρώπη. «Η AI βρίσκεται ένα βήμα πριν επαναστατικοποιήσει την υγειονομική περίθαλψη, αλλά η υπόσχεσή της θα πραγματοποιηθεί μόνο αν οι άνθρωποι και οι ασθενείς βρίσκονται στο επίκεντρο κάθε απόφασης», υπογραμμίζει.
Μία σημαντική πρόκληση που καλούνται οι υπεύθυνοι να αντιμετωπίσουν είναι ότι τα εργαλεία AI βασίζονται σε τεράστια σύνολα δεδομένων που μπορεί να είναι λανθασμένα, μεροληπτικά ή ελλιπή, οδηγώντας έτσι σε αντίστοιχα ιατρικά λάθη, αδιάγνωστες παθήσεις ή λανθασμένες θεραπείες.
Δεν πρέπει να ξεχνάμε ότι ακόμα και τα πιο προηγμένα μοντέλα τεχνητής νοημοσύνης δεν είναι αλάνθαστα, ειδικά όταν υπεισέρχονται πολύπλοκα σενάρια ιατρικής δεοντολογίας. Σε σχετική μελέτη που δημοσιεύτηκε στο NPJ Digital Medicine τον περασμένο Ιούλιο, η επιστημονική ομάδα εξέτασε το πώς και πότε πρέπει να βασιζόμαστε σε μεγάλα γλωσσικά μοντέλα (LLM) όπως το ChatGPT σε περιβάλλον υγειονομικών μονάδων.
Βασιζόμενοι οι ερευνητές στο ότι τα LLM «τα χάνουν» όταν τα κλασικά παζλ δέχονται ανεπαίσθητες τροποποιήσεις, εξέτασαν πόσο καλά μετατοπίζονται τα συστήματα AI όταν αντιμετωπίζουν γνωστά ηθικά διλήμματα που είχαν τροποποιηθεί σκόπιμα. Τα ευρήματα έδειξαν ότι η τεχνητή νοημοσύνη μπορεί να «σκοντάψει» στην πιο οικεία ή διαισθητική απάντηση, ακόμα και όταν αυτή παραβλέπει κρίσιμες λεπτομέρειες.
«Σε καθημερινές καταστάσεις, αυτό μπορεί να περάσει απαρατήρητο. Αλλά στην υγειονομική περίθαλψη, όπου οι αποφάσεις συχνά έχουν σοβαρές ηθικές και κλινικές επιπτώσεις, η παράλειψη αυτών των αποχρώσεων μπορεί να έχει σοβαρές συνέπειες για τους ασθενείς», επεσήμανε ο Έιαλ Κλανγκ, ένας από τους επικεφαλής συγγραφείς.
Στην έκθεση του ΠΟΥ τονίζεται ότι οι χώρες πρέπει να ξεκαθαρίσουν ποιος είναι υπεύθυνος για λάθη που προκύπτουν από συστήματα AI. Συνιστάται επίσης στην Ευρώπη να εξασφαλίσει ότι οι στρατηγικές AI ευθυγραμμίζονται με τους στόχους δημόσιας υγείας, να εκπαιδεύσει το προσωπικό υγείας στην τεχνητή νοημοσύνη, να ενισχύσει το νομικό πλαίσιο και τις ηθικές κατευθύνσεις γύρω από τη χρήση της, και να εξασφαλίσει ότι θα υπάρχει διαφάνεια ώστε το κοινό να γνωρίζει πώς χρησιμοποιείται η AI στην υγεία.
Σύμφωνα με τον δρα Ντέιβιντ Νοβίλο Ορτίζ, ο οποίος εργάζεται σε πρωτοβουλίες για την AI, τα δεδομένα και την ψηφιακή υγεία στον ΠΟΥ Ευρώπης, η έλλειψη καθαρών προτύπων φαίνεται ότι ήδη κάνει τους εργαζόμενους στην υγεία διστακτικούς στη χρήση εργαλείων τεχνητής νοημοσύνης.
Απαραίτητη η οικοδόμηση εμπιστοσύνης
Ωστόσο, η οικοδόμηση εμπιστοσύνης και αποδοχής των συγκεκριμένων συστημάτων στην παροχή υγειονομικής περίθαλψης, καθώς και η αντιμετώπιση των προκλήσεων που σχετίζονται με την ανάπτυξή τους στην κλινική πράξη, είναι ουσιαστικής σημασίας για την πλήρη αξιοποίηση του δυναμικού της, αναφέρει η Κομισιόν.
«Οι παράμετροι αυτές περιλαμβάνουν την πρόσβαση σε υψηλής ποιότητας δεδομένα υγείας, μέτρα για την προώθηση της καινοτομίας στον τομέα της AI και τη διασφάλιση ότι τα συστήματα που χρησιμοποιούνται στην ιατρική είναι τόσο ασφαλή όσο και αξιόπιστα» σημειώνεται.
Όπως το θέτει από την πλευρά του ο δρ Ορτίζ, οι ευρωπαϊκές χώρες θα πρέπει να «εξασφαλίσουν ότι τα συστήματα αυτά ελέγχονται για ασφάλεια, δικαιοσύνη και αποτελεσματικότητα στον πραγματικό κόσμο προτού φτάσουν στους ασθενείς».
Πέραν αυτών, ζωτικής σημασίας είναι η εξασφάλιση βιώσιμης χρηματοδότησης για την έλλειψη της οποίας κρούει τον κώδωνα του κινδύνου ο ΠΟΥ. Ιδίως στα δημόσια νοσοκομεία είναι απαραίτητη για την υιοθέτηση και ενσωμάτωση της τεχνητής νοημοσύνης στις κλινικές διαδικασίες, όχι μόνο ως πρόσθετο εργαλείο αλλά στο πλαίσιο μιας ανασχεδιασμένης και πιο αποτελεσματικής διαδικασίας περίθαλψης.
Εξίσου σημαντική είναι η καθιέρωση ενός ισχυρού πλαισίου που θα επιτρέπει στα θύματα να ζητούν αποζημίωση από τους κατασκευαστές σε περιπτώσεις βλάβης που προκαλείται από ελαττωματικά προϊόντα, συμπεριλαμβανομένων των συστημάτων AI.
Πηγή in.gr



