ChatGPT: Κύμα καχυποψίας στις ευρωπαϊκές αρχές δεδομένων


Η τεχνητή νοημοσύνη και ειδικά τα chatbots όπως το ChatGPT τραβούν για τα καλά το ενδιαφέρον των εποπτικών αρχών στην Ευρώπη καθώς εντείνονται οι φόβοι για παραπληροφόρηση και για παραβίαση της ιδιωτικότητας όσων τα χρησιμοποιούν. Μετά την προσωρινή απαγόρευση για 20 ημέρες στο ChatGPT από την αρμόδια εποπτική αρχή της Ιταλίας, τώρα, η Επιτροπή Προστασίας Δεδομένων της Ιρλανδίας και η αρμόδια ρυθμιστική αρχή προστασίας δεδομένων της Βρετανίας έχουν αναφέρει ότι θα αρχίσουν να εξετάζουν πιο προσεκτικά τα λεγόμενα chatbot τεχνητής νοημοσύνης (AI), ειδικά όσον αφορά την προστασία δεδομένων.

Επίσης οι εποπτικές αρχές προστασίας απορρήτου στη Γαλλία επικοινώνησαν με την Ιταλία για να μάθουν περισσότερα σχετικά με τη βάση της απαγόρευσης στη χώρα αυτή. Οι ρυθμιστικές αρχές στην Ισπανία δήλωσαν ενδέχεται να ξεκινήσουν τη δική τους έρευνα στο μέλλον εάν χρειαστεί για το ChatGPT. Η Γερμανία θα μπορούσε να ακολουθήσει τα βήματα της Ιταλίας, μη επιτρέποντας την πρόσβαση χρηστών στο ChatGPT ανέφεραν οι αρχές της Γερμανίας. Το ChatGPT είναι ήδη μη προσβάσιμο σε πολλές χώρες, όπως η Κίνα, το Ιράν, η Βόρεια Κορέα και η Ρωσία.

Δεν είναι τυχαίο ότι εκατοντάδες εκατομμύρια άνθρωποι έχουν χρησιμοποιήσει το ChatGPT από την κυκλοφορία του τον Νοέμβριο του 2022, καθιστώντας το την ταχύτερα αναπτυσσόμενη εφαρμογή καταναλωτών στην ιστορία, σύμφωνα με μελέτη της UBS.

Ακόμη και το αφεντικό της Tesla και του Twitter και πρωτοπόρος στον τομέα της τεχνολογίας, Ίλον Μασκ, εξέφρασε κι αυτός τις δικές του επιφυλάξεις. Ζήτηση να ανασταλεί η λειτουργία αυτών των μορφών τεχνητής νοημοσύνης μέχρι να γίνουν έρευνες από τις αρμόδιες αρχές για όλα αυτά τα chatbots.

Προειδοποίηση για το ChatGPT και όλα τα chatbots τεχνητής νοημοσύνης γενικότερα έχει στείλει επίσης η Ένωση Ευρωπαίων Καταναλωτών – European Consumer Organisation (BEUC) που ζητά από όλες τις αρχές να ερευνήσουν όλες τις επιπτώσεις από την τεχνολογία αυτή.

«Οι καταναλωτές δεν είναι έτοιμοι για αυτήν την τεχνολογία»

«Οι καταναλωτές δεν είναι έτοιμοι για αυτήν την τεχνολογία. Δεν συνειδητοποιούν πόσο χειριστική, πόσο παραπλανητική μπορεί να είναι», δήλωσε η αναπληρώτρια διευθύντρια του BEUC, Ούρσουλα Πάχλ (Ursula Pachl), στο Euronews. Προσέθεσε επίσης ότι οι καταναλωτές «δεν συνειδητοποιούν ότι οι πληροφορίες που λαμβάνουν είναι ίσως λανθασμένες. Νομίζω ότι αυτό το περιστατικό με το ChatGPT είναι πολύ σημαντικό. Είναι ένα είδος αφύπνισης για την Ευρωπαϊκή Ένωση, επειδή παρόλο που τα ευρωπαϊκά θεσμικά όργανα εργάζονται για έναν νόμο AI, δεν θα ισχύει για άλλα τέσσερα χρόνια. Και έχουμε δει πόσο γρήγορα αναπτύσσονται αυτού του είδους τα συστήματα».

Τι συνέβη στην Ιταλία

Η Ιταλία έγινε η πρώτη ευρωπαϊκή χώρα που απαγόρευσε την πρόσβαση και χρήση του εργαλείου (chatbot) τεχνητής νοημοσύνης ChatGPT, της OpenAI με τη στήριξη της Microsoft, επικαλούμενη λόγους ιδιωτικότητας. Η OpenAI έχει περιθώριο είκοσι ημερών για να προχωρήσει στις απαραίτητες ρυθμίσεις. Εάν δεν το κάνει κινδυνεύει να δεχτεί από τις αρχές της Ιταλίας πρόστιμο 20 εκατ. ευρώ, που αναλογεί στο 4% του ετήσιου τζίρου της σύμφωνα με την ισχύουσα νομοθεσία.

Η Αρχή Προστασίας Δεδομένων της Ιταλίας, γνωστή και ως Garante, κατηγόρησε την OpenAI ότι δεν ελέγχει την ηλικία των χρηστών του ChatGPT η οποία θα πρέπει να είναι μεγαλύτερη από 13 έτη. Σύμφωνα με την ανακοίνωση της Garante, στο ChatGPT «απουσιάζει οποιαδήποτε νομική βάση που να δικαιολογεί τη μαζική συγκέντρωση και αποθήκευση προσωπικών δεδομένων» τα οποία χρησιμοποιούνται για να «εκπαιδεύεται» το chatbot αυτό.

Στο παιχνίδι και η Κομισιόν

Η Κομισιόν από την πλευρά της έχει προτείνει πρωτοποριακή νομοθεσία για την τεχνητή νοημοσύνη. Γνωστή ως «European AI Act», η νομοθεσία αυτή έχει σαν στόχο να περιορίσει σε μεγάλο βαθμό τη χρήση της τεχνητής νοημοσύνης σε ζωτικής σημασίας υποδομές, την εκπαίδευση, την επιβολή του νόμου και το δικαστικό σύστημα.

Η νομοθεσία θα λειτουργεί σε συνδυασμό με τον Γενικό Κανονισμό Προστασίας Δεδομένων της ΕΕ, ο οποίος ρυθμίζει τον τρόπο με τον οποίο οι εταιρείες μπορούν να επεξεργάζονται και να αποθηκεύουν προσωπικά δεδομένα. Σύμφωνα με το Reuters, τα προσχέδια της νομοθεσίας της ΕΕ θεωρεί ότι το ChatGPT είναι μια μορφή τεχνητής νοημοσύνης γενικού σκοπού που χρησιμοποιείται στις λεγόμενες εφαρμογές υψηλού κινδύνου. Τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου ορίζονται από την επιτροπή ως εκείνα που θα μπορούσαν να επηρεάσουν τα θεμελιώδη δικαιώματα ή την ασφάλεια των ανθρώπων.

Πηγή: OT.gr



Πηγή