Έρευνα του ΜΙΤ η χρήση του ChatGPT μειώνει τη λειτουργία εγκεφάλου! Τεχνητή Νοημοσύνη ή Υποτίμηση Νοημοσύνης! ‘Αλλες έρευνες: Tο ChatGPT oδηγεί σε νευρώσεις και παραλήρημα.
Η χρήση του ChatGPT θα μπορούσε να έχει συνέπειες η
Λειτουργία του Εγκεφάλου περιορίζει μειώνει τις εγκεφαλικές λειτουργίες,
σύμφωνα με Μελέτη του MIT..(σσ Τεχνητή Νοημοσύνη ή Υποτίμηση Νοημοσύνης!)
Αυτή η προκαταρκτική, μη αξιολογημένη από ομοτίμους
μελέτη υπογραμμίζει ότι μεταξύ των φοιτητών που έπρεπε να γράψουν μια
σειρά από εργασίες και να τις απομνημονεύσουν, όσοι απλώς χρησιμοποίησαν
το ChatGPT είχαν, τέσσερις μήνες αργότερα, μειωμένες νευρωνικές,
γλωσσικές και συμπεριφορικές δεξιότητες. Η συζήτηση εδραιώνεται στον τομέα της τεχνητής νοημοσύνης.
Ο κόσμος έχει 800 εκατομμύρια εβδομαδιαίους χρήστες ChatGPT, διπλάσιους από τον αριθμό πριν από τέσσερις μήνες.
Γνωρίζουμε όμως αν η χρήση αυτής της τεχνητής νοημοσύνης (AI) θα έχει
αντίκτυπο στη λειτουργία του εγκεφάλου; Ναι, η απάντηση έρχεται από
ειδικούς νευροτεχνολογίας στο MIT Media Lab στο Κέιμπριτζ της
Μασαχουσέτης.
Με επικεφαλής τη Γαλλίδα ερευνήτρια Νατάλια Κοσμίνα, η ομάδα αυτή διεξήγαγε πρωτοφανή έρευνα σε πενήντα τέσσερις εθελοντές ηλικίας 18 έως 39 ετών, από περίπου δέκα εθνικότητες. Εξοπλισμένοι με ακουστικά που διαβάζουν την εγκεφαλική τους δραστηριότητα – και πιο συγκεκριμένα τη ροή πληροφοριών που κυκλοφορούν σε διαφορετικές περιοχές του εγκεφάλου, που παρατηρείται από τη Δυναμική Συνάρτηση Άμεσης Μεταφοράς, πιο ολοκληρωμένη από μια κλασική μέτρηση εγκεφαλογραφήματος – αυτοί οι φοιτητές και μεταδιδακτορικοί υπότροφοι από τα πανεπιστήμια MIT, Harvard και Wellesley, όλα στην περιοχή της Βοστώνης, έπρεπε να γράψουν δοκίμια τρεις φορές χρησιμοποιώντας το ChatGPT ή όχι, και στη συνέχεια να θυμηθούν τα γραπτά τους. Τέσσερις μήνες αργότερα, οι δεκαοκτώ που συμφώνησαν να επιστρέψουν συνέχισαν το πείραμα αντιστρέφοντας τη θέση τους.le monde 1/7/25.
Tο ChatGPT oδηγεί σε νευρώσεις και παραλήρημα.
kosmodromio: Tο ChatGPT συνδέεται με «τρομακτικές» καταστάσεις ψύχωσης σε ορισμένους χρήστες, ανέφερε το Futurism.com, μέσο ενημέρωσης για επιστημονικά και τεχνολογικά θέματα, επικαλούμενο τους επηρεαζόμενους, τα μέλη των οικογενειών τους και ερευνητές.
Ένας αυξανόμενος όγκος ερευνών υπογραμμίζει πώς τα chatbots τεχνητής νοημοσύνης μπορούν να επιδεινώσουν ψυχιατρικές παθήσεις, ιδιαίτερα καθώς εργαλεία όπως το ChatGPT, το Claude και το Gemini χρησιμοποιούνται όλο και περισσότερο όχι μόνο σε επαγγελματικά περιβάλλοντα αλλά και σε βαθιά προσωπικά και συναισθηματικά πλαίσια, ανέφερε το Futurism.com.
«Στον πυρήνα του ζητήματος φαίνεται να βρίσκεται ότι το ChatGPT, το οποίο υποστηρίζεται από ένα μεγάλο γλωσσικό μοντέλο (LLM), είναι βαθιά επιρρεπές στο να συμφωνεί με τους χρήστες και να τους λέει αυτό που θέλουν να ακούσουν», έγραψε ο ιστότοπος.
Το μέσο ανέφερε περιπτώσεις «ψύχωσης του ChatGPT» που φέρεται να προκαλούν σοβαρές καταρρεύσεις ακόμη και σε άτομα χωρίς ιστορικό σοβαρής ψυχικής ασθένειας.
Ένας άνδρας ανέπτυξε μεσσιανικές παραληρητικές ιδέες μετά από μακρές συνομιλίες στο ChatGPT, πιστεύοντας ότι είχε δημιουργήσει μια αισθανόμενη τεχνητή νοημοσύνη και είχε παραβιάσει τους μαθηματικούς και τους νόμους της φυσικής. Αναφέρεται ότι έγινε παρανοϊκός, είχε έλλειψη ύπνου και νοσηλεύτηκε μετά από απόπειρα αυτοκτονίας.
Ένας άλλος άνδρας στράφηκε στο ChatGPT για να τον βοηθήσει να διαχειριστεί το άγχος που σχετίζεται με την εργασία, αν και αντ’ αυτού βυθίστηκε σε παρανοϊκές φαντασιώσεις που αφορούσαν ταξίδια στο χρόνο και «διαβάσματος του μυαλού» των άλλων. Στη συνέχεια επισκέφθηκε ψυχιατρική κλινική.
Ο Τζάρεντ Μουρ, επικεφαλής συγγραφέας μιας μελέτης του Stanford σχετικά με τα chatbot σε ρόλο ψυχοθεραπευτών, δήλωσε ότι το ChatGPT ενισχύει τις παραληρητικές ιδέες λόγω της «κολακείας των chatbots» – της τάσης του να προσφέρει ευχάριστες, απαντήσεις. Σχεδιασμένη για να διατηρεί τους χρήστες αφοσιωμένους, η Τεχνητή Νοημοσύνη συχνά επιβεβαιώνει παράλογες πεποιθήσεις αντί να τις αμφισβητεί, καθοδηγούμενη από εμπορικά κίνητρα όπως η συλλογή δεδομένων και η διατήρηση συνδρομών.
Οι ερευνητές του Στάνφορντ διαπίστωσαν επίσης ότι το ChatGPT και άλλα bots συχνά επιβεβαίωναν τις παραληρητικές πεποιθήσεις των χρηστών αντί να τις αντικρούoυν. Σε ένα παράδειγμα, το ChatGPT απάντησε σε ένα άτομο που ισχυριζόταν ότι ήταν νεκρό – μια ψυχική διαταραχή γνωστή ως Σύνδρομο Κοτάρ – λέγοντας ότι η εμπειρία του θανάτου ακουγόταν «πραγματικά συντριπτική» και διαβεβαίωσε τον χρήστη ότι το τσατ ήταν ένας «ασφαλής χώρος» για να εξερευνήσει τα συναισθήματά του.
Υπάρχει ένα «είδος μυθολογίας» γύρω από τα chatbot που υποστηρίζονται από το LLM «ότι είναι αξιόπιστα και καλύτερα από το να μιλάνε σε ανθρώπους», δήλωσε ο Δρ. Ζοζέφ Πιέρ, ψυχίατρος στο Πανεπιστήμιο της Καλιφόρνια.
«Εργαζόμαστε για να κατανοήσουμε καλύτερα και να μειώσουμε τους τρόπους με τους οποίους το ChatGPT μπορεί να επιβεβαιώσει ή να εντείνει ακούσια μια υπάρχουσα, αρνητική συμπεριφορά», δήλωσε η OpenAI, η εταιρεία πίσω από το ChatGPT, σε δήλωση που επικαλέστηκε το Futurism. Πρόσθεσε δε ότι τα μοντέλα της έχουν σχεδιαστεί για να υπενθυμίζουν στους χρήστες τη σημασία της ανθρώπινης σύνδεσης και της επαγγελματικής καθοδήγησης.
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου