Η ραγδαία εξάπλωση των chatbots έχει οδηγήσει τις τεχνολογικές εταιρείες στη δημιουργία εξειδικευμένων εργαλείων για ιατρικές και υγειονομικές πληροφορίες. Τον Ιανουάριο, η OpenAI παρουσίασε το ChatGPT Health, μια νέα έκδοση του chatbot που μπορεί να αναλύει ιατρικούς φακέλους, δεδομένα από εφαρμογές ευεξίας και φορητές συσκευές, προσφέροντας απαντήσεις σε θέματα υγείας. Αντίστοιχες δυνατότητες προσφέρει και η Anthropic μέσω του Claude. Ωστόσο, και οι δύο εταιρείες διευκρινίζουν ότι τα προγράμματά τους δεν αντικαθιστούν την επαγγελματική ιατρική φροντίδα ούτε προορίζονται για διάγνωση ασθενειών.
Αντ’ αυτού, λένε ότι τα chatbot μπορούν να συνοψίσουν και να εξηγήσουν τα αποτελέσματα περίπλοκων εξετάσεων, να βοηθήσουν στην προετοιμασία για μια επίσκεψη σε γιατρό ή να αναλύσουν σημαντικές τάσεις υγείας που είναι κρυμμένες σε ιατρικά αρχεία και μετρήσεις εφαρμογών.
Τα νέα αυτά εργαλεία μπορούν να συνοψίζουν και να εξηγούν περίπλοκα αποτελέσματα εξετάσεων, να βοηθούν τους ασθενείς να προετοιμαστούν για ιατρικά ραντεβού και να εντοπίζουν σημαντικές τάσεις μέσα σε εκτενή ιατρικά δεδομένα. Σε σύγκριση με μια απλή αναζήτηση στο Διαδίκτυο, τα chatbots προσφέρουν πιο προσωποποιημένες απαντήσεις, ιδιαίτερα όταν ο χρήστης παρέχει λεπτομέρειες όπως ηλικία, φαρμακευτική αγωγή και ιατρικό ιστορικό. Ορισμένοι ειδικοί θεωρούν ότι, παρά τα λάθη που ενίοτε εμφανίζουν —όπως η παραγωγή ανακριβών ή παραπλανητικών πληροφοριών— τα συστήματα αυτά αποτελούν βελτίωση σε σχέση με την απουσία καθοδήγησης ή την ανεξέλεγκτη αναζήτηση πληροφοριών.
Παρά τα πιθανά οφέλη, οι ειδικοί τονίζουν ότι σε περιπτώσεις σοβαρών ή ανησυχητικών συμπτωμάτων, όπως πόνος στο στήθος, δύσπνοια ή έντονος πονοκέφαλος, οι πολίτες πρέπει να αναζητούν άμεσα ιατρική βοήθεια και όχι να βασίζονται στην τεχνητή νοημοσύνη. Ακόμη και σε λιγότερο επείγουσες καταστάσεις, συνιστάται μια στάση «υγιούς σκεπτικισμού». Σημαντικές ή και μικρότερες αποφάσεις υγείας δεν θα πρέπει να λαμβάνονται αποκλειστικά βάσει απαντήσεων ενός γλωσσικού μοντέλου.
Ένα πλεονέκτημα, ωστόσο, των πιο πρόσφατων chatbots είναι ότι απαντούν στις ερωτήσεις των χρηστών με βάση το ιατρικό τους ιστορικό, συμπεριλαμβανομένων των συνταγών τις οποίες έχουν δεχτεί, της ηλικίας και των σημειώσεων του γιατρού.
Εξ’ ου και ένα κρίσιμο ζήτημα αφορά την προστασία προσωπικών δεδομένων. Οπως προαναφέρθηκε, τα οφέλη των chatbots βασίζονται συχνά στην κοινοποίηση ευαίσθητων ιατρικών πληροφοριών. Αν και οι εταιρείες διαβεβαιώνουν ότι τα δεδομένα υγείας διατηρούνται ξεχωριστά και δεν χρησιμοποιούνται για την εκπαίδευση των μοντέλων, οι χρήστες οφείλουν να γνωρίζουν ότι ισχύουν διαφορετικά πρότυπα προστασίας περί απορρήτου ιατρικών πληροφοριών ο οποίος ισχύει για γιατρούς, νοσοκομεία και ασφαλιστικές εταιρείες, αλλά όχι για εταιρείες ανάπτυξης chatbot.
Επιπλέον, οι ανεξάρτητες αξιολογήσεις της τεχνολογίας βρίσκονται ακόμη σε πρώιμο στάδιο. Μελέτη του Πανεπιστημίου της Οξφόρδης με 1.300 συμμετέχοντες έδειξε ότι όσοι χρησιμοποίησαν chatbots για υποθετικά ιατρικά σενάρια δεν έλαβαν καλύτερες αποφάσεις σε σύγκριση με όσους βασίστηκαν σε διαδικτυακές αναζητήσεις ή στην προσωπική τους κρίση. Αν και τα συστήματα μπορούσαν να εντοπίσουν σωστά μια πάθηση όταν τους παρουσιαζόταν πλήρης γραπτή περιγραφή, συχνά δυσκολεύονταν στην αλληλεπίδραση με πραγματικούς χρήστες, κυρίως λόγω ελλιπών πληροφοριών ή μικτής ποιότητας απαντήσεων.
Συμπερασματικά, τα chatbots μπορούν να λειτουργήσουν ως χρήσιμο συμπληρωματικό εργαλείο — ακόμη και ως «δεύτερη γνώμη» — αλλά δεν αντικαθιστούν την επαγγελματική ιατρική αξιολόγηση.
Ρωτήσαμε το CHAT Gpt αν υπάρχει προστασία προσωπικών δεδομένων στις πληροφορίες για την υγεία που ζητούν οι χρήστες από την AI
Μας απάντησε:
Ναι, υπάρχει νομική προστασία, αλλά η πρακτική εφαρμογή της εξαρτάται από το είδος του εργαλείου AI που χρησιμοποιείτε. Τα δεδομένα υγείας θεωρούνται ειδική κατηγορία ευαίσθητων προσωπικών δεδομένων και απολαμβάνουν αυξημένη προστασία
1. Νομικό Πλαίσιο (GDPR & AI Act)
- ΓΚΠΔ (GDPR): Στην ΕΕ, η επεξεργασία δεδομένων υγείας απαγορεύεται γενικά, εκτός εάν υπάρχει ρητή συγκατάθεση του χρήστη ή συντρέχουν λόγοι δημόσιου συμφέροντος.
- AI Act: Ο νέος κανονισμός της ΕΕ κατατάσσει τα συστήματα AI που χρησιμοποιούνται στην υγεία ως υψηλού κινδύνου, επιβάλλοντας αυστηρές απαιτήσεις διαφάνειας και ασφάλειας.
2. Διαφορετικά Επίπεδα Προστασίας
- Κρατικά Εργαλεία (π.χ. mAigov, MyHealthApp): Στην Ελλάδα, ο ψηφιακός βοηθός mAigov και το MyHealthApp έχουν σχεδιαστεί με βάση τα πρότυπα του GDPR, διασφαλίζοντας την ιδιωτικότητα των πολιτών κατά την αλληλεπίδραση με τις δημόσιες υπηρεσίες υγείας.
- Εργαλεία για Ιατρούς (Digital Doctor Assistant): Το AI εργαλείο που χρησιμοποιείται στο Εθνικό Σύστημα Υγείας (ΕΣΥ) επιτρέπει στους γιατρούς να αναζητούν πληροφορίες στον ηλεκτρονικό φάκελο υγείας του ασθενή με ασφάλεια.
- Εμπορικά Chatbots (π.χ. ChatGPT, DeepSeek): Όταν χρησιμοποιείτε γενικά εργαλεία AI, οι πληροφορίες που εισάγετε μπορεί να χρησιμοποιηθούν για την εκπαίδευση των μοντέλων, εκτός αν απενεργοποιήσετε τη σχετική ρύθμιση. Η ελληνική Αρχή Προστασίας Δεδομένων (ΑΠΔΠΧ)
3. Βασικοί Κίνδυνοι και Συμβουλές
- Μη ανώνυμα δεδομένα: Αποφύγετε να δίνετε ονοματεπώνυμα ή συγκεκριμένες ιατρικές εξετάσεις σε δημόσια AI, καθώς η πλήρης διαγραφή τους μπορεί να είναι δύσκολη.
- Παραπλανητικές συμβουλές: Η AI δεν αντικαθιστά τον γιατρό. Υπάρχει πάντα ο κίνδυνος λανθασμένης διάγνωσης ή “ψευδαισθήσεων” του συστήματος.
LinkedIn +3
Για περισσότερες λεπτομέρειες σχετικά με τα δικαιώματά μας, μπορούμε να συμβουλευτούμε την Αρχή Προστασίας Δεδομένων Προσωπικού Χαρακτήρα.
Με πληροφορίες από: AP, ChatGPT