Η ΕΕ θέλει να θέσει σε ισχύ ένα νέο κανονιστικό πλαίσιο για την τεχνητή νοημοσύνη. Πόσο αποτελεσματικό θα είναι όμως, δεδομένης και της ραγδαίας ανάπτυξης της ΤΝ;Γιατί χρειάζεται ένα πλαίσιο για την ΤΝ;

Οι συνέπειες που θα έχει η εφαρμογή της τεχνητής νοημοσύνης σε όλους σχεδόν τους τομείς της ζωής θα είναι τεράστιες – είτε πρόκειται για τις μεγάλες ευκαιρίες που παρουσιάζονται στις επιχειρήσεις, είτε για τους κινδύνους που αφορούν τον χρήστη.

Για τις συνέπειες αυτές έχει προειδοποιήσει και ο Σαμ Άλτμαν, ο άνθρωπος που ανέπτυξε το ChatGPT. Ορισμένοι επιστήμονες πιστεύουν πως υφίσταται ακόμη και μία απειλή για την ανθρωπότητα, σε περίπτωση που η ΤΝ εφαρμοστεί μαζικά, χωρίς ο άνθρωπος να διατηρεί πάντοτε τον έλεγχο.

Η Ε.Ε. αποτελεί την πρώτη μεγάλη οικονομική περιοχή της υφηλίου που προβαίνει στη διαμόρφωση ενός κανονιστικού πλαισίου ειδικά για την τεχνητή νοημοσύνη. Όπως αναφέρει το νομοσχέδιο της Ευρωπαϊκής Επιτροπής, στόχος είναι να διασφαλιστεί πως η ΤΝ θα χρησιμοποιηθεί με τρόπο διαφανή, δίκαιο, ασφαλή και φιλικό προς το περιβάλλον, δίχως όμως να περιοριστούν ταυτοχρόνως οι δυνατότητες και οι ευκαιρίες για τις ευρωπαϊκές νεοφυείς επιχειρήσεις που σχετίζονται με την τεχνητή νοημοσύνη.

Η Ε.Ε. έχει διαμορφώσει έναν ουδέτερο ορισμό για την τεχνητή νοημοσύνη, ανεξαρτήτως των κατά περίπτωση τεχνολογικών εφαρμογών της – προκειμένου να καλύπτει ο ορισμός αυτός και τις μελλοντικές εξελίξεις στον χώρο της ΤΝ. Οι ρυθμίσεις επί συγκεκριμένων προϊόντων τεχνητής νοημοσύνης θα καθορίζονται κατόπιν με απλούστερα κανονιστικά διατάγματα.

Ποιες εφαρμογές της ΤΝ θα ρυθμιστούν;

Τα προϊόντα ΤΝ κατατάσσονται σε τέσσερις κατηγορίες κινδύνου: μη αποδεκτά, υψηλού κινδύνου, γενετική ΤΝ και περιορισμένου κινδύνου.

Μη αποδεκτά είναι τα συστήματα που εξωθούν τους ανθρώπους να αλλάξουν τη συμπεριφορά τους – όπως για παράδειγμα παιχνίδια που ενθαρρύνουν τα παιδιά να προβούν σε επικίνδυνες ενέργειες. Σε αυτά συμπεριλαμβάνονται και τηλεχειριζόμενα βιομετρικά συστήματα καταγραφής, που μπορούν να αναγνωρίσουν πρόσωπα σε πραγματικό χρόνο. Απαγορεύονται ακόμη εφαρμογές ΤΝ που προορίζονται για την κατηγοριοποίηση ανθρώπων βάσει χαρακτηριστικών όπως το φύλο, το χρώμα του δέρματος, η κοινωνική συμπεριφορά ή η καταγωγή τους – με εξαίρεση τα σχετικά συστήματα που θα δίνονται στον στρατό, τις μυστικές υπηρεσίες και τις ανακριτικές αρχές.

Προγράμματα τεχνητής νοημοσύνης που κρίνονται υψηλού κινδύνου θα χρειάζονται ειδική άδεια προτού διατεθούν στην αγορά, ώστε να διασφαλιστεί πως δεν θα μπορούν να αποτελέσουν απειλή για τα θεμελιώδη δικαιώματα των πολιτών.

Σε αυτά τα προϊόντα συγκαταλέγονται, για παράδειγμα, τα αυτοκίνητα με αυτόματο πιλότο, ιατρικές τεχνολογίες, οι αερομεταφορές ή τα παιχνίδια. Περιλαμβάνονται επίσης συστήματα για την εποπτεία των συνόρων, τον έλεγχο της μετανάστευσης, την αστυνόμευση, τη διαχείριση του προσωπικού στις επιχειρήσεις ή τη συλλογή βιομετρικών δεδομένων στις ταυτότητες.

Συστήματα γενετικής ΤΝ, που παράγουν περιεχόμενο και αναλύουν δεδομένα, όπως το ChatGPT, χαρακτηρίζονται ως μετρίου κινδύνου. Οι κατασκευαστές του είναι υποχρεωμένοι να τηρούν διαφάνεια ως προς τον τρόπο διαμόρφωσης και λειτουργίας της ΤΝ, όπως και τους περιορισμούς που έχουν τεθεί σε αυτήν σχετικά με την παραγωγή παράνομου περιεχομένου.

Περιορισμένου κινδύνου είναι τα προγράμματα που επεξεργάζονται και παράγουν οπτικοακουστικό υλικό. Σε αυτά συμπεριλαμβάνονται τα λεγόμενα “deep fakes”, αλλά και τα προγράμματα εξυπηρέτησης πελατών. Στα συστήματα περιορισμένου κινδύνου απαιτείται μονάχα να γνωρίζει ο χρήστης πως πρόκειται για εφαρμογή τεχνητής νοημοσύνης.

Πότε θα τεθεί σε ισχύ το νέο πλαίσιο;

Μετά από τρεις ημέρες διαβουλεύσεων τα τρία θεσμικά όργανα της Ε.Ε., η Επιτροπή, το Κοινοβούλιο και το Συμβούλιο Υπουργών, κατέληξαν σε ένα νομοσχέδιο, το οποίο όμως δεν περιέχει όλες τις τεχνικά αναγκαίες διατάξεις και το οποίο πρέπει να εγκριθεί από το Κοινοβούλιο και το Συμβούλιο, τους εκπροσώπους των 27 κρατών-μελών. Αυτό αναμένεται να γίνει στο τέλος της νομοθετικής περιόδου του Κοινοβουλίου, τον Απρίλιο του 2024. Από εκείνη τη στιγμή τα κράτη-μέλη θα έχουν δύο χρόνια να ενσωματώσουν τη νομοθεσία για την ΤΝ στο εθνικό τους δίκαιο. Γι’ αυτό και, δεδομένου ότι η ΤΝ εξελίσσεται ραγδαία, υπάρχει ο κίνδυνος να έχει ήδη ξεπεραστεί το κανονιστικό πλαίσιο της Ε.Ε., όταν τελικά θα τεθεί σε ισχύ, όπως τόνισε ο χριστιανοδημοκράτης Ευρωβουλευτής Άξελ Φος.

Εντωμεταξύ το ChatGPT προσφέρει με πληρωμή προγράμματα που μπορούν να αλλάξουν κατά τη βούληση του χρήστη και σύμφωνα με το BBC ακριβώς αυτές οι εφαρμογές χρησιμοποιούνται και για τη σύνταξη ηλεκτρονικών μηνυμάτων από hackers και άλλους ανθρώπους με εγκληματικές προθέσεις.

«Πρέπει να διασφαλίσουμε ότι όλα όσα έχουν συμφωνηθεί θα μπορούν να λειτουργήσουν και στην πράξη. Οι ιδέες που διαπνέουν το νομοθετικό κείμενο για την ΤΝ θα μπορούν να υπηρετηθούν μονάχα όταν θα έχουμε νομική ασφάλεια, εναρμονισμένα πρότυπα, ξεκάθαρες κατευθυντήριες γραμμές και σαφή εφαρμογή των κανόνων», τόνισε ο Φος.

Ποιες είναι οι πρώτες αντιδράσεις;

Η Ένωση Βιομηχανίας Υπολογιστών και Επικοινωνίας στην Ευρώπη (CCIA) προειδοποιεί πως το σχέδιο της Ε.Ε. μάλλον υπερ-ρυθμίζει πολλές πτυχές της ΤΝ. «Ο νόμος για την ΤΝ δεν έχει το όραμα και τη φιλοδοξία που παρουσιάζουν οι ευρωπαϊκές νεοφυείς εταιρείες και επιχειρήσεις. Και λόγω αυτού οι ευρωπαϊκές πρωταθλήτριες εταιρείες που τόσο χρειάζεται η Ε.Ε. μπορεί να αναγκαστούν τελικά να φύγουν», επισημαίνει ο Μπονιφάς ντε Σαμπρί της CCIA.

Εκπρόσωποι του ευρωπαϊκού λόμπι για τους καταναλωτές BEUC επικρίνουν το νομοσχέδιο επίσης, αλλά διότι θεωρούν πως αφήνει μεγάλα περιθώρια αυτορρύθμισης στις εταιρείες και δεν θέτει επαρκείς κατευθυντήριες γραμμές για πολλά προγράμματα ΤΝ, όπως μεταξύ άλλων και το ChatGPT.

Τι κάνουν οι άλλες χώρες;

Οι Η.Π.Α., η Μεγάλη Βρετανία και 20 ακόμη κράτη έχουν θεσπίσει κανονισμούς προστασίας δεδομένων και συστάσεις για τις εταιρείες που αναπτύσσουν συστήματα τεχνητής νοημοσύνης, οι οποίοι ωστόσο δεν είναι νομικά δεσμευτικοί. Στις Η.Π.Α. θα λειτουργεί ένα «Ινστιτούτο Αφαλείας» που θα αξιολογεί τους σχετιζόμενους με την ΤΝ κινδύνους, ενώ οι εταιρείες θα πρέπει να δημοσιοποιούν τις ερευνητικές δοκιμές τους, εάν θεωρηθεί ότι προκύπτουν κίνδυνοι για την εθνική ασφάλεια ή τη δημόσια υγεία.

Στην Κίνα οι ιδιώτες έχουν πολύ περιορισμένη πρόσβαση σε εφαρμογές τεχνητής νοημοσύνης, διότι το κομμουνιστικό καθεστώς φοβάται πως δεν θα μπορεί πλέον να ασκεί στα συστήματα λογοκρισία τόσο εύκολα, όσο μπορούσε με το διαδίκτυο – γι’ αυτό και το ChatGPT, για παράδειγμα, δεν είναι διαθέσιμο στην Κίνα. Πάντως, το κράτος χρησιμοποιεί ήδη σε μεγάλη κλίμακα τεχνολογίες αναγνώρισης.

Επιμέλεια: Γιώργος Πασσάς

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ