Κυριακή, 5 Οκτωβρίου, 2025
22.2 C
Ηρακλείου

Δες τον καιρό

Όταν η τεχνητή νοημοσύνη στέλνει τουρίστες σε μέρη που δεν υπάρχουν

Πρέπει να διαβάσετε

Σύμφωνα με έρευνες, περίπου το 30% όσων ταξιδεύουν στο εξωτερικό στρέφεται σε εφαρμογές τεχνητής νοημοσύνης όπως το ChatGPT, το Gemini ή το Copilot για προτάσεις δρομολογίων και αξιοθέατων. Ωστόσο, η νέα αυτή τάση κρύβει και παγίδες: από λάθος πληροφορίες έως προορισμούς που απλά… δεν υπάρχουν.

Χαρακτηριστικό είναι το περιστατικό που αφηγείται ο Miguel Angel Gongora Meza, ιδρυτής της Evolution Treks Peru. Ενώ βρισκόταν μια αγροτική πόλη του Περού και προετοιμαζόταν για μια πεζοπορία στις Άνδεις, άκουσε δύο τουρίστες να συζητούν τα σχέδιά τους να εξερευνήσουν το «Ιερό Φαράγγι του Χουμαντάι». Τέτοιος προορισμός όμως δεν υπάρχει, λέει ο Gongora Meza στο BBC News. Ήταν επινόηση ενός chatbot, που συνδύασε τυχαία τοπωνύμια. Οι τουρίστες είχαν ήδη ξοδέψει 160 δολάρια για να φτάσουν σε έναν αγροτικό δρόμο χωρίς οδηγό, ένα λάθος που θα μπορούσε να αποβεί μοιραίο.

«Αυτού του είδους η παραπληροφόρηση είναι επικίνδυνη στο Περού», εξηγεί. «Το υψόμετρο, οι κλιματικές αλλαγές και η προσβασιμότητα των μονοπατιών πρέπει να προγραμματίζονται. Όταν χρησιμοποιείς ένα πρόγραμμα το οποίο συνδυάζει εικόνες και ονόματα για να δημιουργήσει μια φαντασίωση, τότε μπορεί να βρεθείς σε υψόμετρο 4.000 μέτρων χωρίς οξυγόνο και σήμα».

Δεν πρόκειται για μεμονωμένο περιστατικό. Η ταξιδιωτική μπλόγκερ Dana Yao και ο σύζυγός της βρέθηκαν παγιδευμένοι στην κορυφή του όρους Μίσεν στην Ιαπωνία, όταν ανακάλυψαν ότι το τελευταίο τελεφερίκ της επιστροφής είχε ήδη αναχωρήσει, αντίθετα με ό,τι «διαβεβαίωνε» το ChatGPT. Άλλοι ταξιδιώτες έχουν οδηγηθεί σε ανύπαρκτα αξιοθέατα, όπως ένας υποτιθέμενος Πύργος του Άιφελ στο Πεκίνο ή μια διαδρομή μαραθωνίου στη βόρεια Ιταλία. Σε έρευνα του 2024, το 37% όσων χρησιμοποίησαν την τεχνητή νοημοσύνη για να σχεδιάσουν τα ταξίδια τους δήλωσαν ότι οι πληροφορίες ήταν ελλιπείς, ενώ το 33% ότι ήταν ψευδείς.

«Τα chatbots δεν καταλαβαίνουν τι λένε»
Αυτά τα προβλήματα προκύπτουν από τον τρόπο με τον οποίο η τεχνητή νοημοσύνη δημιουργεί τις απαντήσεις της. Όπως εξηγεί ο Rayid Ghani, καθηγητής μηχανικής μάθησης στο Πανεπιστήμιο Carnegie Melon στις ΗΠΑ, ενώ προγράμματα όπως το ChatGPT μπορεί να φαίνονται ότι σας δίνουν λογικές και χρήσιμες συμβουλές, ο τρόπος με τον οποίο λαμβάνουν αυτές τις πληροφορίες σημαίνει ότι δεν μπορείτε ποτέ να είστε απόλυτα σίγουροι ότι σας λένε την αλήθεια.

«Δεν γνωρίζουν τη διαφορά μεταξύ ταξιδιωτικών συμβουλών, οδηγιών ή συνταγών», λέει ο Ghani. «Γνωρίζουν μόνο λέξεις. Έτσι, συνεχίζουν να παράγουν λέξεις που κάνουν ό,τι σας λένε να ακούγεται ρεαλιστικό, και από εκεί προέρχονται πολλά προβλήματα».

Τα μεγάλα γλωσσικά μοντέλα όπως το ChatGPT λειτουργούν αναλύοντας τεράστιες συλλογές κειμένων και συνθέτοντας λέξεις και φράσεις που, στατιστικά, μοιάζουν να είναι ταιριαστές απαντήσεις στα ερωτήματά μας. Μερικές φορές παρέχουν απόλυτα ακριβείς πληροφορίες. Άλλες φορές, λαμβάνουμε αυτό που οι ειδικοί της τεχνητής νοημοσύνης αποκαλούν «ψευδαίσθηση», καθώς αυτά τα εργαλεία απλά επινοούν πράγματα. Αλλά επειδή τα ΑΙ chatbots παρουσιάζουν τις ψευδαισθήσεις και τις πραγματικές απαντήσεις τους με τον ίδιο τρόπο, είναι συχνά δύσκολο για τους χρήστες να διακρίνουν τι είναι πραγματικό και τι όχι.

Στην περίπτωση του «Ιερού Φαραγγιού του Χουμαντάι», ο Ghani πιστεύει ότι το πρόγραμμα πιθανότατα συνέθεσε μερικές λέξεις που φαινόταν κατάλληλες για την περιοχή. H ανάλυση όλων αυτών των δεδομένων δεν παρέχει απαραίτητα σε ένα εργαλείο όπως το ChatGPT μια χρήσιμη κατανόηση του φυσικού κόσμου. Θα μπορούσε εύκολα να μπερδέψει μια χαλαρή βόλτα 4.000 μέτρων μέσα σε μια πόλη με μια ανάβαση 4.000 μέτρων στην πλαγιά ενός βουνού.

Πώς μπορεί να προφυλαχτεί κανείς
Και τα προβλήματα δεν περιορίζονται μόνο στα κείμενα, αλλά και στις εικόνες. Με την ίδια ευκολία, τα ΑΙ προγράμματα μπορούν να δείξουν ρεαλιστικές φωτογραφίες από μέρη που δεν υπάρχουν, αλλά και βίντεο. Ένα ζευγάρι που πρόσφατα έκανε πεζοπορία αναζητώντας ένα γραφικό τελεφερίκ στη Μαλαισία που είχε δει στο TikTok, διαπίστωσε ότι δεν υπήρχε τέτοια κατασκευή.

Σε διεθνές επίπεδο γίνονται προσπάθειες ρύθμισης του τρόπου με τον οποίο η τεχνητή νοημοσύνη παρουσιάζει τις πληροφορίες στους χρήστες. Η ΕΕ και οι ΗΠΑ εξετάζουν την υποχρεωτική προσθήκη υδατογραφημάτων ή άλλων διακριτικών χαρακτηριστικών, ώστε οι θεατές να γνωρίζουν πότε κάτι έχει τροποποιηθεί ή δημιουργηθεί από τεχνητή νοημοσύνη. Ωστόσο, όπως τονίζει ο Ghani, η πρόληψη είναι δύσκολη και η καλύτερη άμυνα παραμένει η επαλήθευση.

Κάποιος που ζητά πληροφορίες πριν ταξιδέψει θα πρέπει να είναι όσο το δυνατόν πιο συγκεκριμένος στις ερωτήσεις του και να επαληθεύει τα πάντα. Το πρόβλημα είναι ότι οι ταξιδιώτες συνήθως ρωτούν για μέρη που δεν γνωρίζουν, και δεν είναι εύκολο να διακρίνουν τα λάθη. Αλλά αν ένα εργαλείο τεχνητής νοημοσύνης τους δώσει μια πρόταση ταξιδιού που ακούγεται κάπως υπερβολικά τέλεια, θα πρέπει να την επαληθεύσουν. Και τελικά, ο χρόνος που θα πρέπει να αφιερώσουν στην επαλήθευση των πληροφοριών της τεχνητής νοημοσύνης μπορεί να είναι ο ίδιος ή και περισσότερος σε σχέση με τον παραδοσιακό τρόπο σχεδιασμού ενός ταξιδιού.

ΠηγήCnn.gr

Σχετικά άρθρα

Άλλα Πρόσφατα