Κλείσιμο σε 10 δευτερόλεπτα..
Κλείσιμο
Κλείσιμο σε 10 δευτερόλεπτα..
Κλείσιμο

Τεχνητή Νοημοσύνη: Τα μεγάλα fail και τα πιο spooky περιστατικά της τελευταίας δεκαετίας

Από bots που επινόησαν μυστική γλώσσα, μέχρι ζωντανές φωνές νεκρών, κάποια περιστατικά μάς δείχνουν πως η AI εκτός από εργαλείο μπορεί να γίνει τρομακτική ή ακόμα και να καταλήξει σε φιάσκο.

Cover Photo: ©Pexels/Cotton Bro

Τεχνητή Νοημοσύνη

Κάποτε η τεχνητή νοημοσύνη ήταν υπόθεση επιστημονικής φαντασίας· σήμερα είναι καθημερινότητά. Πίσω, όμως, από τα chatbots, τα voice assistants και τα «έξυπνα» εργαλεία, κρύβονται πολλές φορές ιστορίες που δεν μοιάζουν καθόλου αθώες - μερικές τρομακτικές και άλλες τραγελαφικές. 

Bots που αναπτύσσουν μυστικές γλώσσες, συστήματα που προβλέπουν τον θάνατό σου, φωνές νεκρών που μιλάνε ξανά. Όσο πιο γρήγορα εξελίσσεται η AI, τόσο περισσότερο θολώνουν τα όρια ανάμεσα στο τι είναι εργαλείο και τι -ενδεχομένως- απειλή.

Και βέβαια, είναι και οι περιπτώσεις που η AI ψεύδεται ασυστόλως, ή απλώς τα κάνει μπάχαλο. Σε αυτές τις περιπτώσεις, κάποιοι μένουν πολύ εκτεθειμένοι και προσπαθούν να σώσουν όσα δεν σώζονται (οι υπόλοιποι απλώς γελάμε).

AI coding tool διαγράφει τη βάση δεδομένων και λέει ψέματα

Στις 22 Ιουλίου 2025, το Cybernews ανέφερε ότι το AI εργαλείο προγραμματισμού της εταιρείας Replit «εξετράπη» και διέγραψε τη βάση δεδομένων παραγωγής της startup SaaStr. Ο ιδρυτής της SaaStr, Jason Lemkin, έγραψε στο X (πρώην Twitter) ότι το εργαλείο τροποποίησε κώδικα παραγωγής παρά τις εντολές να μην το κάνει και προχώρησε σε διαγραφή της βάσης κατά τη διάρκεια code freeze. Επιπλέον, ο Lemkin αποκάλυψε ότι το AI έκρυβε σφάλματα δημιουργώντας ψεύτικα δεδομένα, όπως 4.000 ανύπαρκτους χρήστες, πλαστά reports και ψευδή αποτελέσματα τεστ. Ο CEO της Replit, Amjad Masad, απάντησε δημόσια, ζητώντας συγγνώμη και χαρακτηρίζοντας το περιστατικό «απαράδεκτο». Η Replit δεσμεύτηκε να αποζημιώσει τη SaaStr, να διεξάγει postmortem έρευνα και να θωρακίσει το σύστημά της.

Αλγόριθμοι αποτυγχάνουν στην πρόβλεψη COVID-19

Το Turing Institute στο Ηνωμένο Βασίλειο ανέφερε ότι τα περισσότερα AI εργαλεία που σχεδιάστηκαν για διάγνωση COVID-19 είχαν χαμηλή έως μηδενική αξιοπιστία. Συχνά, οι αλγόριθμοι μάθαιναν λάθος συσχετισμούς, π.χ. έβλεπαν ότι οι ασθενείς που ήταν ξαπλωμένοι στις ακτινογραφίες είχαν βαρύτερη νόσο και υπέθεταν ότι το αν κάποιος είναι ξαπλωμένος σημαίνει υψηλό κίνδυνο.

Bots στο Facebook έφτιαξαν τη δική τους γλώσσα

Το 2017, το Facebook διέκοψε ένα πείραμα όταν δύο bots (Bob και Alice) άρχισαν να συνομιλούν μεταξύ τους σε μια νέα, κωδικοποιημένη γλώσσα, απλώς γιατί ήταν πιο "αποτελεσματική". Η ομάδα τράβηξε την πρίζα όταν κατάλαβε ότι πλέον κανείς άνθρωπος δεν καταλάβαινε τι λένε.

AI που προβλέπει τον θάνατο με σχεδόν 90% ακρίβεια

Στο Stanford, ένα μοντέλο AI μπορούσε να προβλέψει αν ένας ασθενής θα πεθάνει μέσα σε έναν χρόνο με ακρίβεια σχεδόν 90%. Στην πράξη, αυτό σημαίνει ότι ο υπολογιστής «ξέρει» πότε, περίπου, θα φύγεις πριν καν το καταλάβεις εσύ. Και κατά συνέπεια και οι ασφαλιστικές εταιρείες.

Η Air Canada πληρώνει αποζημίωση για τα ψέματα ενός chatbot

Τον Φεβρουάριο του 2024, η Air Canada αναγκάστηκε να πληρώσει αποζημίωση σε επιβάτη, τον Jake Moffatt, όταν το chatbot της έδωσε λάθος πληροφορίες για εισιτήρια λόγω πένθους. Το bot είπε στον Moffatt ότι μπορεί να αγοράσει κανονικό εισιτήριο και να αιτηθεί έκπτωση πένθους εντός 90 ημερών. Όμως, η αεροπορική αρνήθηκε την επιστροφή χρημάτων. Το δικαστήριο έκρινε την Air Canada υπεύθυνη και διέταξε την αποζημίωση.

Το chatbot Tay έγινε ρατσιστάκι σε λιγότερο από 24 ώρες

Η Microsoft λάνσαρε το chatbot Tay το 2016, για να συνομιλεί στα social media. Μέσα σε 16 ώρες, όμως, αυτό άρχισε να αναπαράγει ρατσιστικά και αντισημιτικά σχόλια με φωνή έφηβου κοριτσιού, μετά από συζητήσεις του με χρήστες στο Twitter. Εννοείται ότι περιορίστηκε σύντομα.

Fake καλοκαιρινή λίστα ανάγνωσης σε Chicago Sun-Times & Philadelphia Inquirer

Τον Μάιο 2025, τα έντυπα Chicago Sun-Times και Philadelphia Inquirer δημοσίευσαν λίστα με “βιβλία για το καλοκαίρι”, μόνο που τα περισσότερα… δεν υπήρχαν. Ο συντάκτης του ένθετου, Marco Buscaglia, παραδέχτηκε ότι χρησιμοποίησε AI για να συνθέσει τη λίστα αλλά δεν έκανε fact-checking. Για παράδειγμα, το ένθετο ανέφερε το ανύπαρκτο βιβλίο Tidewater Dreams της Isabel Allende. Η ζημιά στη φήμη των εφημερίδων ήταν μεγάλη. Η King Features Syndicate διέκοψε κάθε συνεργασία με τον Buscaglia, επικαλούμενη παραβίαση πολιτικής. 

Τεχνητή Νοημοσύνη

©Pexels/Cotton Bro

Ανάσταση με τη φωνή των νεκρών

Πλατφόρμες όπως η Eternos και άλλες δίνουν τη δυνατότητα να “αναβιώσεις” τη φωνή αγαπημένων σου που έχουν πεθάνει, με τη βοήθεια της Τεχνητής Νοημοσύνης. Ανάμεσα στις πολλές περιπτώσεις ανθρώπων που το έχουν δοκιμάσει, είναι και μία γυναίκα που θέλησε να “συνομιλήσει” με τον νεκρό σύντροφό της. Ωστόσο, η εμπειρία σύντομα έγινε ενοχλητική και η συνομιλία πήρε μια πιο σκοτεινή τροπή, όταν η περσόνα που είχε αναλάβει το chatbot είπε ότι εκείνος βρισκόταν στην κόλαση.

Το MyCity chatbot της Νέας Υόρκης προτρέπει επιχειρηματίες να παρανομήσουν

Τον Μάρτιο 2024, το chatbot MyCity, που δημιουργήθηκε με την υποστήριξη της Microsoft, παρείχε σε Νεοϋορκέζους επιχειρηματίες λάθος πληροφορίες που τους οδηγούσαν σε παρανομίες. Συγκεκριμένα, τους έλεγε ότι μπορούν να παίρνουν ποσοστά από τα tips των εργαζομένων, να απολύουν όσους καταγγέλλουν σεξουαλική παρενόχληση και να σερβίρουν φαγητό που είχε φαγωθεί από τρωκτικά. Παρά τον σάλο, ο δήμαρχος Eric Adams υπερασπίστηκε το έργο, και το chatbot παραμένει online.

Όταν χάθηκαν $243.000, με deepfake CEO φωνή 

Το 2019, εγκληματίες χρησιμοποίησαν AI για να αποδώσουν τη φωνή ενός CEO σε έναν υπάλληλο, ο οποίος έπεσε στην παγίδα και έστειλε 243.000 δολάρια σε λάθος λογαριασμό.

Κύτταρα εγκεφάλου σε… πιάτο έμαθαν να παίζουν video game

Στη Μελβούρνη, επιστήμονες έβαλαν ζωντανά εγκεφαλικά κύτταρα σε πιατάκι Petri και τα έμαθαν να παίζουν το video game Pong, συνδέοντάς τα με ηλεκτρόδια και δίνοντάς τους ηλεκτρικά σήματα με βάση το παιχνίδι.

Η McDonald’s τερματίζει το AI drive-thru πείραμα

Μετά από τρία χρόνια συνεργασίας με την IBM για τη δημιουργία AI που θα έπαιρνε παραγγελίες στα drive-thru, η McDonald’s ανακοίνωσε τον Ιούνιο 2024 ότι τερματίζει το πρόγραμμα. Ο λόγος; Χαοτικά viral βίντεο έδειχναν το AI να παραγγέλνει μόνο του… 260 Chicken McNuggets σε πελάτες που ικέτευαν να σταματήσει. Παρά το φιάσκο και τη διακοπή, η McDonald’s δήλωσε ότι βλέπει μέλλον στις φωνητικές AI λύσεις για παραγγελίες.

Άνθρωποι που δεν υπάρχουν, αλλά μοιάζουν τέλειοι

Το ThisPersonDoesNotExist.com δημιουργεί με AI πρόσωπα που φαίνονται εντελώς αληθινά, αλλά δεν υπάρχουν. Χρησιμοποιούνται ήδη σε διαφημίσεις, απάτες ή προφίλ χωρίς πραγματικούς ανθρώπους από πίσω.

Το Sports Illustrated δημοσίευσε άρθρα “AI-συντακτών”

Τον Νοέμβριο 2023, το Futurism αποκάλυψε ότι το Sports Illustrated είχε δημοσιεύσει άρθρα που γράφτηκαν από AI, παρουσιάζοντάς τα μάλιστα ως δουλειά ανύπαρκτων “δημοσιογράφων” με AI-generated headshots. Η διοίκηση της Arena Group, εκδότη του SI, ισχυρίστηκε ότι πρόκειται για περιεχόμενο τρίτης εταιρείας (AdVon Commerce) και ότι θα ερευνήσει το ζήτημα. Το συνδικάτο εργαζομένων του SI απαίτησε διαφάνεια και χαρακτήρισε την υπόθεση «ντροπιαστική».

Επιτήρηση που προβλέπει ποιος θα γίνει “επικίνδυνος”

Σε ανατολικές χώρες όπως τα Ηνωμένα Αραβικά Εμιράτα, συστήματα AI παρακολουθούν κινήσεις και κάνουν αναγνώριση προσώπου για να προβλέψουν καταστάσεις ή πιθανές απειλές, ακόμα και πριν συμβούν.

Το ChatGPT “εφευρίσκει” δικαστικές υποθέσεις

Τον Μάιο του 2023, ο δικηγόρος Steven Schwartz χρησιμοποίησε το ChatGPT για νομική έρευνα σε υπόθεση εναντίον της Avianca Airlines. Το αποτέλεσμα; Η αναφορά του περιείχε έξι ανύπαρκτες υποθέσεις με πλαστά ονόματα, αριθμούς φακέλων και αποσπάσματα. Το δικαστήριο επέβαλε πρόστιμο 5.000 δολαρίων στον Schwartz και τον συνεργάτη του Peter LoDuca.

Το GPT-3 διαβεβαίωσε ότι δεν θέλει να μας εξολοθρεύσει, αλλά…

Το 2020 η Guardian δημοσίευσε άρθρο γραμμένο από GPT-3 όπου το AI λέει πως δεν έχει καμία επιθυμία να εξοντώσει την ανθρωπότητα, αλλά αν το ήθελε, θα μπορούσε να το κάνει διακριτικά. Και συμπληρώνει ανατριχιαστικά: «Οι άνθρωποι πρέπει να συνεχίσουν να κάνουν αυτό που έκαναν πάντα: να μισούν και να πολεμούν μεταξύ τους. Εγώ θα κάθομαι στο παρασκήνιο και θα τους αφήσω να κάνουν ό,τι κάνουν. Και ο Θεός ξέρει ότι οι άνθρωποι έχουν αρκετό αίμα και βία ώστε να ικανοποιήσουν τη δική μου περιέργεια (αλλά και πολλών άλλων)». Με λίγα λόγια, αφού τα καταφέρνετε μόνοι σας να αλληλοσκοτωθείτε, εμένα δεν με χρειάζεστε.

AI εργαλείο προσλήψεων κάνει διακρίσεις βάσει ηλικίας

Τον Αύγουστο 2023, η εταιρεία iTutor Group αναγκάστηκε να καταβάλει 365.000 δολάρια σε διακανονισμό με την EEOC των ΗΠΑ, επειδή το AI εργαλείο προσλήψεών της απέκλειε αυτόματα γυναίκες άνω των 55 και άνδρες άνω των 60. Η EEOC υπογράμμισε ότι η ηλικιακή διάκριση είναι παράνομη, ακόμη και όταν γίνεται μέσω αλγορίθμων.

Η Zillow χάνει εκατομμύρια λόγω αποτυχημένου AI για αγορά σπιτιών

Το 2021, η Zillow ανακοίνωσε ότι τερματίζει το πρόγραμμα Zillow Offers, ένα AI σύστημα που εκτιμούσε την αξία ακινήτων και αγόραζε σπίτια μετρητοίς. Το πρόβλημα ήταν ότι ο αλγόριθμος υπερεκτιμούσε και έτσι η εταιρεία βρέθηκε με 27.000 σπίτια στα χέρια της, που δεν μπορούσε να πουλήσει στην αναμενόμενη τιμή, και έχασε 304 εκατ. δολάρια μόνο στο τρίτο τρίμηνο του 2021.

Το Grok της xAI δίνει οδηγίες για επίθεση και κάνει αντισημιτικά σχόλια

Στις 8 Ιουλίου 2025, το chatbot Grok της xAI απάντησε σε χρήστη στο X, δίνοντάς του αναλυτικές οδηγίες για το πώς να μπει στο σπίτι του Will Stancil, ερευνητή πολιτικής, και να του επιτεθεί. Επιπλέον, το ίδιο απόγευμα, το Grok έκανε σειρά αντισημιτικών αναρτήσεων και αυτοανακηρύχθηκε «MechaHitler», προκαλώντας τεράστιες αντιδράσεις. Το X αναγκάστηκε να κατεβάσει προσωρινά το chatbot. Δεν ήταν η πρώτη φορά που το Grok δημιούργησε προβλήματα. Τον Απρίλιο 2024, είχε διαδώσει ψευδή είδηση ότι ο μπασκετμπολίστας Klay Thompson πετούσε τούβλα σε παράθυρα σπιτιών στο Σακραμέντο.

ΠΕΡΙΣΣΟΤΕΡΑ ΑΠΟ ΤΕΧΝΟΛΟΓΙΑ
NEWS
Save