Με εκατοντάδες εκατομμύρια ανθρώπους να στρέφονται στα chatbots τεχνητής νοημοσύνης για συμβουλές, ήταν θέμα χρόνου πριν οι τεχνολογικές εταιρείες αρχίσουν να προσφέρουν προγράμματα ειδικά σχεδιασμένα για να απαντούν σε ερωτήσεις υγείας.
Τον Ιανουάριο, η OpenAI παρουσίασε το ChatGPT Health, μια νέα έκδοση του chatbot της, η οποία, σύμφωνα με την εταιρεία, μπορεί να αναλύει τα ιατρικά αρχεία των χρηστών, εφαρμογές ευεξίας και δεδομένα από φορητές συσκευές (wearables), προκειμένου να απαντά σε ερωτήσεις υγείας και ιατρικής φύσης. Προς το παρόν υπάρχει λίστα αναμονής για το πρόγραμμα. Η Anthropic, ανταγωνίστρια εταιρεία τεχνητής νοημοσύνης, προσφέρει παρόμοιες δυνατότητες σε ορισμένους χρήστες του chatbot της, Claude.
Και οι δύο εταιρείες δηλώνουν ότι τα προγράμματά τους, γνωστά ως μεγάλα γλωσσικά μοντέλα, δεν υποκαθιστούν την επαγγελματική ιατρική φροντίδα και δεν πρέπει να χρησιμοποιούνται για διάγνωση ιατρικών καταστάσεων. Αντίθετα, μπορούν να συνοψίζουν και να εξηγούν περίπλοκα αποτελέσματα εξετάσεων, να βοηθούν στην προετοιμασία για μια επίσκεψη στον γιατρό ή να αναλύουν σημαντικές τάσεις υγείας που κρύβονται σε ιατρικά αρχεία και μετρήσεις εφαρμογών.
Ακολουθούν ορισμένα σημεία που πρέπει να λάβετε υπόψη πριν μιλήσετε σε ένα chatbot για την υγεία σας:
Τα chatbots μπορούν να προσφέρουν πιο εξατομικευμένες πληροφορίες από μια αναζήτηση στο Google
Ορισμένοι γιατροί και ερευνητές που έχουν εργαστεί με το ChatGPT Health και παρόμοια προγράμματα τα θεωρούν βελτίωση σε σχέση με την υπάρχουσα κατάσταση.
Οι πλατφόρμες τεχνητής νοημοσύνης δεν είναι τέλειες, μερικές φορές «φαντάζονται» πληροφορίες ή δίνουν λανθασμένες συμβουλές, όμως οι απαντήσεις τους είναι πιο πιθανό να είναι εξατομικευμένες και συγκεκριμένες σε σύγκριση με ό,τι μπορεί να βρει ένας ασθενής μέσω μιας απλής αναζήτησης στο διαδίκτυο.
«Η εναλλακτική συχνά είναι το τίποτα ή ο ασθενής να αυτοσχεδιάζει», δήλωσε ο Δρ. Robert Wachter, ειδικός στην ιατρική τεχνολογία στο Πανεπιστήμιο της Καλιφόρνιας στο Σαν Φρανσίσκο. «Αν χρησιμοποιούνται υπεύθυνα, αυτά τα εργαλεία μπορούν να προσφέρουν χρήσιμες πληροφορίες.»
Ένα πλεονέκτημα των πιο σύγχρονων chatbots είναι ότι απαντούν λαμβάνοντας υπόψη το ιατρικό ιστορικό του χρήστη, συμπεριλαμβανομένων συνταγογραφούμενων φαρμάκων, ηλικίας και σημειώσεων γιατρού.
Ακόμη κι αν δεν έχετε δώσει πρόσβαση στα ιατρικά σας δεδομένα, ο Wachter και άλλοι ειδικοί συνιστούν να παρέχετε όσο το δυνατόν περισσότερες λεπτομέρειες ώστε να βελτιωθεί η ποιότητα των απαντήσεων.
Αν έχετε ανησυχητικά συμπτώματα, παραλείψτε το AI
Ο Wachter και άλλοι ειδικοί τονίζουν ότι υπάρχουν περιπτώσεις όπου οι άνθρωποι πρέπει να παραλείπουν το chatbot και να αναζητούν άμεσα ιατρική βοήθεια. Συμπτώματα όπως δύσπνοια, πόνος στο στήθος ή έντονος πονοκέφαλος μπορεί να υποδηλώνουν επείγουσα ιατρική κατάσταση.
Ακόμη και σε λιγότερο επείγουσες περιπτώσεις, ασθενείς και γιατροί θα πρέπει να προσεγγίζουν τα προγράμματα AI με «υγιή σκεπτικισμό», σύμφωνα με τον Δρ. Lloyd Minor του Πανεπιστημίου Στάνφορντ.
«Αν πρόκειται για μια σημαντική ιατρική απόφαση, ή ακόμη και για μια μικρότερη απόφαση σχετικά με την υγεία σας, δεν πρέπει ποτέ να βασίζεστε αποκλειστικά σε όσα λαμβάνετε από ένα μεγάλο γλωσσικό μοντέλο», είπε ο Minor, ο οποίος είναι κοσμήτορας της Ιατρικής Σχολής του Στάνφορντ.
Σκεφτείτε την ιδιωτικότητά σας πριν ανεβάσετε δεδομένα υγείας
Πολλά από τα οφέλη των AI chatbots προκύπτουν από τη διαμοίραση προσωπικών ιατρικών πληροφοριών. Ωστόσο, είναι σημαντικό να κατανοήσετε ότι ό,τι μοιράζεστε με μια εταιρεία τεχνητής νοημοσύνης δεν προστατεύεται από τον ομοσπονδιακό νόμο περί ιδιωτικότητας που συνήθως καλύπτει ευαίσθητα ιατρικά δεδομένα.
Γνωστός ως HIPAA, ο νόμος αυτός επιβάλλει πρόστιμα και ακόμη και ποινές φυλάκισης σε γιατρούς, νοσοκομεία, ασφαλιστικές εταιρείες ή άλλους παρόχους υγείας που αποκαλύπτουν ιατρικά αρχεία. Ωστόσο, δεν εφαρμόζεται στις εταιρείες που σχεδιάζουν chatbots.
«Όταν κάποιος ανεβάζει τον ιατρικό του φάκελο σε ένα μεγάλο γλωσσικό μοντέλο, αυτό είναι πολύ διαφορετικό από το να τον παραδίδει σε έναν νέο γιατρό», δήλωσε ο Minor. «Οι καταναλωτές πρέπει να κατανοήσουν ότι πρόκειται για εντελώς διαφορετικά πρότυπα ιδιωτικότητας.»
Τanto η OpenAI όσο και η Anthropic δηλώνουν ότι οι πληροφορίες υγείας των χρηστών διατηρούνται ξεχωριστά από άλλα δεδομένα και υπόκεινται σε πρόσθετες προστασίες ιδιωτικότητας. Οι εταιρείες δεν χρησιμοποιούν δεδομένα υγείας για την εκπαίδευση των μοντέλων τους. Οι χρήστες πρέπει να επιλέξουν (opt-in) να μοιραστούν τις πληροφορίες τους και μπορούν να αποσυνδεθούν οποιαδήποτε στιγμή.
Οι δοκιμές δείχνουν ότι τα chatbots μπορεί να κάνουν λάθη
Παρά τον ενθουσιασμό γύρω από το AI, οι ανεξάρτητες δοκιμές της τεχνολογίας βρίσκονται ακόμη σε πρώιμο στάδιο. Πρώιμες μελέτες δείχνουν ότι προγράμματα όπως το ChatGPT μπορούν να αριστεύσουν σε απαιτητικές ιατρικές εξετάσεις, αλλά συχνά δυσκολεύονται όταν αλληλεπιδρούν με ανθρώπους.
Μια μελέτη με 1.300 συμμετέχοντες από το Πανεπιστήμιο της Οξφόρδης διαπίστωσε πρόσφατα ότι άτομα που χρησιμοποιούσαν chatbots AI για να ερευνήσουν υποθετικές παθήσεις δεν έλαβαν καλύτερες αποφάσεις σε σχέση με άτομα που χρησιμοποιούσαν διαδικτυακές αναζητήσεις ή την προσωπική τους κρίση.
Τα chatbots που έλαβαν ολοκληρωμένα, γραπτά ιατρικά σενάρια εντόπισαν σωστά την υποκείμενη πάθηση στο 95% των περιπτώσεων.
«Αυτό δεν ήταν το πρόβλημα», δήλωσε ο επικεφαλής συγγραφέας Adam Mahdi του Oxford Internet Institute. «Το σημείο όπου τα πράγματα κατέρρευσαν ήταν κατά την αλληλεπίδραση με τους πραγματικούς συμμετέχοντες.»
Ο Mahdi και η ομάδα του εντόπισαν αρκετά προβλήματα επικοινωνίας. Οι άνθρωποι συχνά δεν παρείχαν τις απαραίτητες πληροφορίες για να εντοπιστεί σωστά το πρόβλημα υγείας. Αντίστοιχα, τα συστήματα AI συχνά απαντούσαν με έναν συνδυασμό σωστών και λανθασμένων πληροφοριών, και οι χρήστες δυσκολεύονταν να τα ξεχωρίσουν.
Η μελέτη, που πραγματοποιήθηκε το 2024, δεν χρησιμοποίησε τις πιο πρόσφατες εκδόσεις των chatbots, συμπεριλαμβανομένων νέων προσφορών όπως το ChatGPT Health.
Μια δεύτερη «AI γνώμη» μπορεί να βοηθήσει
Η δυνατότητα των chatbots να κάνουν διευκρινιστικές ερωτήσεις και να αντλούν κρίσιμες λεπτομέρειες από τους χρήστες είναι ένας τομέας όπου, σύμφωνα με τον Wachter, υπάρχει περιθώριο βελτίωσης.
«Νομίζω ότι εκεί θα γίνει πραγματικά καλό, όταν τα εργαλεία γίνουν λίγο πιο “γιατροί” στον τρόπο που αλληλεπιδρούν με τους ασθενείς», είπε.
Προς το παρόν, ένας τρόπος για να νιώθετε μεγαλύτερη σιγουριά σχετικά με τις πληροφορίες που λαμβάνετε είναι να συμβουλεύεστε περισσότερα από ένα chatbots — όπως θα ζητούσατε μια δεύτερη γνώμη από άλλον γιατρό.
«Μερικές φορές βάζω τις πληροφορίες στο ChatGPT και στο Gemini», είπε ο Wachter, αναφερόμενος στο εργαλείο τεχνητής νοημοσύνης της Google. «Και όταν συμφωνούν και τα δύο, νιώθω πιο ασφαλής ότι αυτή είναι η σωστή απάντηση.»
Διαβάστε τις Ειδήσεις σήμερα και ενημερωθείτε για τα πρόσφατα νέα.
Ακολουθήστε το Skai.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις.