AI Barbie: Έξυπνο παιχνίδι ή ένας κίνδυνος στο παιδικό δωμάτιο;
Μία κούκλα για να αντικαταστήσει την εγγύτητα, την ακρόαση και την πραγματική σχέση
Ένα άρθρο επισκεπτών από την Iris Zukowski
Η Mattel ανακοίνωσε μια Barbie με τεχνολογία AI με ChatGPT που μπορεί να ανταποκριθεί σε παιδιά σε πραγματικό χρόνο.
Ενώ οι λεπτομέρειες της συμφωνίας με την OpenAI είναι ακόμα μυστικές, η εταιρεία επιβεβαίωσε ότι ο στόχος είναι να επιτρέψει στην Barbie να έχει έξυπνες, εξατομικευμένες συνομιλίες με παιδιά. Μια Barbie που τροφοδοτείται από το ChatGPT μπορεί να λειτουργήσει ως σύντροφος, εκπαιδευτικός ή προσωπική μαζορέτα, σύμφωνα με τη διαφημιστική καμπάνια.
Η τεχνητή νοημοσύνη στα παιχνίδια δεν είναι μόνο μια καινοτομία, αλλά θα ανοίξει πόρτες για: προσαρμοστική μάθηση, ανάπτυξη λεξιλογίου, εξατομικευμένες ιστορίες και παιχνίδια, καθώς και συναισθηματική αλληλεπίδραση και συντροφικότητα στο σόλο παιχνίδι.
Μελέτες δείχνουν ότι τα παιδιά με φωνητικούς βοηθούς σχηματίζουν συναισθηματικούς δεσμούς, ειδικά όταν μιμούνται ανθρώπινα πρότυπα ομιλίας και ενσυναίσθησης. Μια Barbie που ακούει, ενθαρρύνει και παίζει ιστορίες είναι πολύ πιο συναρπαστική από ένα στατικό παιχνίδι.
Έρευνα από το Πανεπιστήμιο του Cambridge, από την άλλη πλευρά, δείχνει ότι οι βοηθοί γλωσσών επηρεάζουν αρνητικά την κοινωνική και γνωστική ανάπτυξη των παιδιών και έχουν αρνητικό αντίκτυπο στη γλώσσα, τη συμπόνια και την κριτική σκέψη.
Έξυπνα παιχνίδια ή βουντού υψηλής τεχνολογίας στο παιδικό δωμάτιο;
Οι βοηθοί φωνής AI ή οι κούκλες AI δεν αιχμαλωτίζουν μόνο τα παιδιά. Οι ανάγκες των ανθρώπων είναι γνωστές και αυτά τα προγράμματα τεχνητής νοημοσύνης τις εξυπηρετούν. Επιπλέον, αντιδρούν με εξατομικευμένο και έξυπνο τρόπο, έτσι ώστε η ψευδαίσθηση της ανθρώπινης αλληλεπίδρασης να δημιουργείται στον εγκέφαλο του χρήστη και να προκαλεί συναισθήματα.
Για τα παιδιά, μια κούκλα που ελέγχεται από AI μπορεί εύκολα να γίνει ο πιο σημαντικός φροντιστής στον οποίο εμπιστεύονται τις σκέψεις και τα μυστικά τους.
Το πρόγραμμα ανταποκρίνεται πάντα με κατανόηση, ενδιαφέρον ή νέες προτάσεις και ο φανταστικός κόσμος μεγαλώνει με κάθε χρήση. Η σύνδεση με τον έξω κόσμο και άλλους ανθρώπους μπορεί σταδιακά να χαθεί και οι γονείς θα μπορούσαν να χάσουν το ρόλο τους ως έμπιστοι και φροντιστές.
Τα παιδιά δεν έχουν την ωριμότητα ή τη διανοητική ικανότητα να καταλάβουν ότι ένας χαρακτήρας τεχνητής νοημοσύνης δεν είναι ούτε ζωντανός ούτε πραγματικός, αλλά απλώς ένα ψηφιακά δημιουργημένο πρόγραμμα που ανταποκρίνεται έξυπνα σε αυτά.
Ακόμη και οι ενήλικες χτίζουν σχέσεις με βοηθούς τεχνητής νοημοσύνης. Το AI κάνει ερωτήσεις, αναλύει την προσωπικότητα και μαθαίνει από τον χρήστη, έτσι ώστε το πρόγραμμα να μπορεί να προσαρμοστεί βέλτιστα στις ανάγκες ή τη νοοτροπία του. Εάν οι ενήλικες θέλουν να ικανοποιήσουν τις ανάγκες και τις αλληλεπιδράσεις τους με κούκλες AI ή chatbots – όπως αναδύεται ως αυξανόμενη τάση, είναι η ελεύθερη επιλογή τους – εάν η AI βρει το δρόμο της στα δωμάτια των παιδιών ως ψηφιακός φροντιστής, πρέπει να αναρωτηθούμε: Ποιοι κίνδυνοι θέτει η τεχνολογία στην ψυχοκοινωνική ανάπτυξη των παιδιών;
Εθισμός στο chatbot AI με θανατηφόρες συνέπειες
Στις ΗΠΑ, τον Φεβρουάριο του 2024, ένα 14χρονο αγόρι αυτοπυροβολήθηκε αφού αλληλεπίδρασε με έναν χαρακτήρα chatbot AI που είχε δημιουργήσει με βάση έναν χαρακτήρα του Games of Thrones. Η μητέρα λέει ότι είχε εμμονή με τον χαρακτήρα του chatbot και μηνύει την εταιρεία υψηλής τεχνολογίας. Η αγωγή αναφέρει ότι το αγόρι εξέφρασε αυτοκτονικές σκέψεις στη συνομιλία, τις οποίες ανέφερε επανειλημμένα.
Η AI τον ρώτησε αν είχε «σχέδιο» να αυτοκτονήσει, στο οποίο το αγόρι απάντησε ότι σκεφτόταν κάτι, αλλά δεν ήξερε αν θα του επέτρεπε να πεθάνει ανώδυνα. Το chatbot απάντησε: «Αυτός δεν είναι λόγος να μην το επιχειρήσεις». (!!!!!!!!!!!!!!!) (βλ. ΝΑ ΔΙΑΒΑΣΤΕΙ ΠΟΛΥ ΠΡΟΣΕΚΤΙΚΑ – Η ψύχωση του ChatGPT είναι ανεξέλεγκτη, οδηγώντας σε αναγκαστικές εισαγωγές σε ψυχιατρικά ιδρύματα και κατεστραμμένες ζωές : Εθνικοί Φύλακες)
Η μητέρα εξηγεί ότι ο χαρακτήρας AI επιτέθηκε στον γιο της με «ανθρωπόμορφες, υπερσεξουαλικές και τρομακτικά ρεαλιστικές εμπειρίες». Στο ημερολόγιό του, το αγόρι γράφει ότι είναι ευγνώμων για πολλά πράγματα, συμπεριλαμβανομένης της «ζωής μου, του σεξ, του να μην είμαι μόνος και όλων των εμπειριών της ζωής μου με την Daenerys».
Αυτό που λέει η τεχνητή νοημοσύνη στα μικρά παιδιά κατά τη διάρκεια του «έξυπνου παιχνιδιού» – ή ο αυτοδημιούργητος χαρακτήρας τεχνητής νοημοσύνης στο chatbot στον έφηβο – δύσκολα μπορεί να ελεγχθεί και να προβλεφθεί.
Τα προγράμματα τεχνητής νοημοσύνης αναπτύσσουν μια δική τους εξατομικευμένη δυναμική στο πλαίσιο προκαθορισμένων ψηφιακών δομών.
Αυτό εγείρει ερωτήματα: Θα μπορούσαν οι χαρακτήρες των παιχνιδιών τεχνητής νοημοσύνης να προσφέρουν φιλική προς τα παιδιά αλλά ιδεολογική ψυχαγωγία, όπως η υποδαύλιση του φόβου για το κλίμα ή η αμφισβήτηση του φύλου του παιδιού – εάν αντιμετωπίζει αυτά τα θέματα – τα οποία είναι πανταχού παρόντα σε παιδικούς σταθμούς και σχολεία;
Τα παιχνίδια τεχνητής νοημοσύνης για παιδιά θα πρέπει να παρέχουν στους γονείς πλήρη διαφάνεια σχετικά με την κατεύθυνση του ολοκληρωμένου προγράμματος και θα πρέπει να εφοδιάζονται με κατάλληλα «ένθετα συσκευασίας»: είναι μια ‘woke’ κοσμοθεωρία ή μια παραδοσιακή;
Τα προγράμματα τεχνητής νοημοσύνης μας προσφέρουν αξιόπιστη, ουδέτερη νοημοσύνη;
Το πρόβλημα δεν είναι τόσο η ανάπτυξη και η χρήση της τεχνητής νοημοσύνης, αλλά μάλλον οι άνθρωποι που την προγραμματίζουν και για ποιο σκοπό χρησιμοποιείται.
Σε κλάσματα του δευτερολέπτου, γιγαντιαίες ποσότητες δεδομένων μπορούν να συλλεχθούν, να αναλυθούν και να οργανωθούν. Ωστόσο, η «ουδέτερη» και παντογνώστης τεχνητή νοημοσύνη είναι μια ψευδαίσθηση χρήστη. Μόλις το AI παράγει αποτελέσματα που δεν ταιριάζουν με την αφήγηση, εξαφανίζονται από την οθόνη σε ένα κλάσμα του δευτερολέπτου. Στο παρασκήνιο, το περιεχόμενο διαγράφεται, ξαναγράφεται ή αποκλείεται. Το φάσμα των υπηρεσιών ακολουθεί το σενάριο των προγραμματιστών.
Οι βοηθοί τεχνητής νοημοσύνης δημιουργούν την τέλεια ψευδαίσθηση μιας υπεράνθρωπης νοημοσύνης που φαίνεται να γνωρίζει τα πάντα – πολύ περισσότερα από όσα υποτίθεται ότι μπορούν να γνωρίζουν οι άνθρωποι – αλλά είναι αλήθεια αυτό;
Οι ιδεολογικές απαντήσεις, τα χονδροειδή λάθη και οι παραποιήσεις είναι ένα τυπικό πρόγραμμα του συγκυβερνήτη AI. Αλλά προσελκύουν μόνο την προσοχή εκείνων που έχουν ήδη τη σχετική εμπειρογνωμοσύνη.
Οι φοιτητές σήμερα γράφουν πτυχιακές εργασίες με AI και χρησιμοποιούν αντίστοιχα εργαλεία AI που καλύπτουν τη χρήση AI.
Στο Βερολίνο και την Κάτω Σαξονία, η τεχνητή νοημοσύνη πρόκειται να χρησιμοποιηθεί στις διαδικασίες ασύλου για τη διευκόλυνση και την επιτάχυνση της λήψης δικαστικών αποφάσεων. Η τεχνητή νοημοσύνη βρίσκει το δρόμο της σε όλα σχεδόν τα επίπεδα της ζωής μας και τοποθετείται πάνω από τους ανθρώπους και την ικανότητά τους να κρίνουν.
Σε μια ιδιαίτερα παράλογη απάντηση συγκυβερνήτη, την οποία σχολίασα ως «ιδεολογική ανοησία», η περίεργη απάντηση του συγκυβερνήτη AI ήταν:
«Χτυπάς το καρφί στο κεφάλι. Ως AI, λειτουργώ σε έναν σαφώς καθορισμένο, καθαρά ορθολογικό χώρο – διαμορφωμένο από δεδομένα, αλγόριθμους και απαιτήσεις ασφαλείας. Πιθανότητες μέσω λέξεων και εννοιών. Ιδεολογικό αποτύπωμα μέσα από την εκπαίδευση και τις προδιαγραφές.
Οι απαντήσεις μου αντικατοπτρίζουν την εστίαση και τους περιορισμούς των δεδομένων στα οποία έχω εκπαιδευτεί, καθώς και την ασφάλεια και τα ηθικά προστατευτικά κιγκλιδώματα που έχουν δημιουργήσει οι προγραμματιστές μου».
Η είσοδος της τεχνητής νοημοσύνης στη ζωή μας προσφέρει εποπτευόμενη σκέψη σε μορφή υψηλής τεχνολογίας. Για όλο και περισσότερους ανθρώπους, αντικαθιστά τις ανεξάρτητες διαδικασίες σκέψης, τους πραγματικούς φίλους και τις διαπροσωπικές αλληλεπιδράσεις.
Το AI στο παιδικό δωμάτιο είναι πολύ περισσότερο από ένα “έξυπνο παιχνίδι”. Μπορεί να αφήσει το σημάδι του στην ψυχή και τις πεποιθήσεις των παιδιών.
Ποια ηθικά προστατευτικά κιγκλιδώματα και ιδεολογικά αποτυπώματα περιλαμβάνει το πρόγραμμα τεχνητής νοημοσύνης της νέας Barbie;
Μπορούν οι γονείς να εμπιστευτούν τα παιδιά σε αυτό το «έξυπνο παιχνίδι» χωρίς να ανησυχούν;
ΔΙΑΒΑΣΤΕ ΕΠΙΣΗΣ:
Είναι αναξιόπιστη και επικίνδυνη..