Σύμφωνα με νέα μελέτη, το ChatGPT μπορεί να δώσει απαντήσεις αμφιβόλου ακρίβειας σε ό,τι αφορά τα συμπτώματα για μια συγκεκριμένη ασθένεια.
Το πρόγραμμα τεχνητής νοημοσύνης ChatGPT έχει ακρίβεια 49% έως 61% όσον αφορά τον εντοπισμό συμπτωμάτων που σχετίζονται με συγκεκριμένες ασθένειες, ανέφεραν πρόσφατα ερευνητές στο περιοδικό iScience.
Αυτό μπορεί να έχει να κάνει με τον τρόπο που εκπαιδεύονται τα προγράμματα τεχνητής νοημοσύνης όπως το ChatGPT, δήλωσε ο επικεφαλής ερευνητής Ahmed Abdeen Hamed, ερευνητής στην επιστήμη συστημάτων και τη βιομηχανική μηχανική στο Πανεπιστήμιο Binghamton, στο Κρατικό Πανεπιστήμιο της Νέας Υόρκης.
Το ChatGPT είναι ένα μεγάλο γλωσσικό μοντέλο, ένας τύπος Τεχνητής Νοημοσύνης που μαθαίνει αναλύοντας τεράστιες ποσότητες κειμένου. Αλλά μπορεί να «σκοντάφτει» στην ιατρική ορολογία που χρησιμοποιούν οι γιατροί, ανέφερε ο Hamed σε δελτίο Τύπου.
«Το ChatGPT χρησιμοποιεί περισσότερο μια φιλική και κοινωνική γλώσσα, επειδή υποτίθεται ότι επικοινωνεί με τους μέσους ανθρώπους», είπε ο Hamed. «Στην ιατρική βιβλιογραφία, οι άνθρωποι χρησιμοποιούν κανονική ορολογία».
Για παράδειγμα, το ChatGPT «σκοντάφτει» όταν αντιστοιχίζει τη «λυπημένη διάθεση» με την «κατάθλιψη», την «ερυθρότητα του προσώπου» με τη «φλεγμονή» ή «επιληπτικές κρίσεις» με «πυρετικούς σπασμούς», αναφέρει η μελέτη.
«Το γλωσσικό μοντέλο προφανώς προσπαθεί να απλοποιήσει τον ορισμό αυτών των συμπτωμάτων, επειδή υπάρχει πολύς κόσμος που κάνει τέτοιες ερωτήσεις, οπότε άρχισε να ελαχιστοποιεί τις τυπικότητες της ιατρικής γλώσσας για να προσελκύσει αυτούς τους χρήστες», ανέφερε ο Hamed.
Από την άλλη πλευρά, το ChatGPT ήταν εξαιρετικό στον εντοπισμό πραγμάτων για τα οποία η ιατρική ορολογία ταιριάζει με την καθημερινή ορολογία, όπως όροι ασθενειών, ονόματα φαρμάκων και γενετικές πληροφορίες, ανέφεραν οι ερευνητές.
Ο Hamed πίστευε ότι το ChatGPT θα είχε «ακρίβεια το πολύ 25%» όταν δοκιμάστηκε σε αυτά τα θέματα. Αλλά η Τεχνητή Νοημοσύνη ήταν ακριβής σε ποσοστό από 88% έως 97% στον εντοπισμό όρων ασθενειών, από 90% έως 91% στην κατανόηση ονομάτων φαρμάκων και από 88% έως 98% στην αξιολόγηση γενετικών πληροφοριών, δείχνουν τα αποτελέσματα.
«Το συναρπαστικό αποτέλεσμα ήταν ότι το ChatGPT είπε ότι ο καρκίνος είναι νόσος, η υπέρταση είναι νόσος, ο πυρετός είναι σύμπτωμα, το Remdesivir είναι φάρμακο και το BRCA είναι ένα γονίδιο που σχετίζεται με τον καρκίνο του μαστού», ανέφερε ο Hamed, χαρακτηρίζοντας απίστευτα τα αποτελέσματα.
Ο Hamed είπε ότι διερευνά την ικανότητα της Τεχνητής Νοημοσύνης να απαντά σε ιατρικά ερωτήματα, επειδή πολλοί στρέφονται στα προγράμματα για γρήγορες συμβουλές.
«Οι άνθρωποι μιλάνε συνέχεια στο ChatGPT αυτές τις μέρες και λένε: «Έχω αυτά τα συμπτώματα. Έχω καρκίνο; Έχω καρδιακή ανακοπή; Πρέπει να κάνω θεραπεία;»», ανέφερε ο Hamed.
«Μπορεί να είναι μια πολύ επικίνδυνη υπόθεση, γι’ αυτό θέλαμε να δούμε τι θα συνέβαινε αν κάναμε αυτές τις ερωτήσεις, τι είδους απαντήσεις θα παίρναμε και πώς αυτές οι απαντήσεις θα μπορούσαν να επαληθευτούν από τη βιοϊατρική βιβλιογραφία», είπε ο Hamed.
Ο στόχος του Hamed είναι να αποκαλύψει αυτά τα ελαττώματα, ώστε τα μοντέλα να μπορούν να προσαρμοστούν για καλύτερες απαντήσεις.
«Αν αναλύω γνώση, θέλω να βεβαιωθώ ότι αφαιρώ οτιδήποτε μπορεί να φαίνεται ύποπτο πριν χτίσω τις θεωρίες μου και φτιάξω κάτι που δεν είναι ακριβές», είπε.
Για παράδειγμα, το ChatGPT έμεινε εντελώς «άναυδο» όταν ερωτήθηκε σχετικά με δεδομένα που είναι αποθηκευμένα στην GenBank, μια βάση δεδομένων των Εθνικών Ινστιτούτων Υγείας που εκχωρεί έναν αριθμό σε κάθε αναγνωρισμένη αλληλουχία DNA, όπως NM_007294.4 για το γονίδιο BRCA1 του καρκίνου του μαστού.
Όταν ζητήθηκαν αυτοί οι αριθμοί στο πλαίσιο των δοκιμών του σε γενετικές πληροφορίες, το ChatGPT τους «επινόησε».
«Ίσως υπάρχει μια ευκαιρία εδώ να αρχίσουμε να εισάγουμε (ιατρική ορολογία) στα μεγάλα γλωσσικά μοντέλα για να παρέχουμε πολύ μεγαλύτερη ακρίβεια, να απαλλαγούμε από όλες τις παραισθήσεις και να μετατρέψουμε αυτά τα εργαλεία σε κάτι εκπληκτικό», είπε.
Πηγή : iatropedia