Τεχνητή νοημοσύνη: το ΕΚ πρωτοστατεί για την πρώτη δέσμη κανόνων της ΕΕ
Προτάσεις για το βέλτιστο νομοθετικό πλαίσιο για την τεχνητή νοημοσύνη ενέκρινε την Τρίτη το ΕΚ για να ενισχυθούν η καινοτομία, τα δεοντολογικά πρότυπα και η εμπιστοσύνη στην τεχνολογία.
Το Ευρωπαϊκό Κοινοβούλιο συγκαταλέγεται μεταξύ των πρώτων θεσμικών οργάνων που διατυπώνουν συστάσεις σχετικά με τους κανόνες για την τεχνητή νοημοσύνη και το περιεχόμενό τους σε θέματα δεοντολογίας, αστικής ευθύνης και δικαιωμάτων διανοητικής ιδιοκτησίας. Οι συστάσεις αυτές θα προλειάνουν το έδαφος ώστε η ΕΕ να καταστεί παγκόσμιος ηγέτης στην ανάπτυξη της τεχνητής νοημοσύνης. Η νομοθετική πρόταση από την Ευρωπαϊκή Επιτροπή αναμένεται στις αρχές του 2021.
Δεοντολογικό πλαίσιο για την τεχνητή νοημοσύνη
Η νομοθετική πρωτοβουλία του Iban García del Blanco (Σοσιαλιστές, Ισπανία) καλεί την Ευρωπαϊκή Επιτροπή να παρουσιάσει ένα νέο νομοθετικό πλαίσιο με δεοντολογικές αρχές και νομικές υποχρεώσεις που θα πρέπει να τηρούνται κατά την ανάπτυξη, την υλοποίηση και τη χρήση τεχνητής νοημοσύνης, ρομποτικής και συναφών τεχνολογιών στην ΕΕ, συμπεριλαμβανομένου του λογισμικού, των αλγορίθμων και των δεδομένων.
Η νομοθετική πρωτοβουλία εγκρίθηκε με 559 ψήφους υπέρ, 44 κατά και 88 αποχές.
Οι παρακάτω κατευθυντήριες αρχές θα πρέπει να διέπουν τη μελλοντική νομοθεσία: ο ανθρωποκεντρικός και ανθρωπογενής χαρακτήρας της τεχνητής νοημοσύνης, η ασφάλεια, η διαφάνεια και η λογοδοσία, οι δικλείδες ασφαλείας έναντι της μεροληψίας και των διακρίσεων, το δικαίωμα επανόρθωσης, η κοινωνική και η περιβαλλοντική ευθύνη, ο σεβασμός της ιδιωτικής ζωής και η προστασία των δεδομένων.
Οι τεχνολογίες τεχνητής νοημοσύνης υψηλού κινδύνου, όπως για παράδειγμα αυτές που διαθέτουν ικανότητες αυτοδιδασκαλίας, πρέπει να σχεδιάζονται με τρόπο που να εξασφαλίζει τη δυνατότητα παρέμβασης από τον άνθρωπο ανά πάσα στιγμή. Σε περίπτωση που χρησιμοποιείται κάποια λειτουργία που θα μπορούσε να οδηγήσει σε σοβαρή παραβίαση των δεοντολογικών αρχών και να προκαλέσει κινδύνους, οι ικανότητες αυτοδιδασκαλίας θα πρέπει να απενεργοποιούνται και να αποκαθίσταται ο πλήρης έλεγχος από τον άνθρωπο.
Ευθύνη για την πρόκληση ζημίας από την τεχνητή νοημοσύνη
Η νομοθετική πρωτοβουλία του Axel Voss (ΕΛΚ, Γερμανία) ζητεί τη θέσπιση ενός πλαισίου αστικής ευθύνης με μακρόπνοη προοπτική, βάσει του οποίου οι διαχειριστές συστημάτων τεχνητής νοημοσύνης υψηλού κινδύνου θα καθίστανται υπεύθυνοι για κάθε ζημία που προκαλείται. Η νομική σαφήνεια θα ενθαρρύνει την καινοτομία, παρέχοντας αίσθημα ασφάλειας στις επιχειρήσεις. Παράλληλα, θα προστατεύσει τους πολίτες και θα αυξήσει την εμπιστοσύνη τους στις τεχνολογίες τεχνητής νοημοσύνης, αποτρέποντας δραστηριότητες που μπορούν να αποβούν επικίνδυνες.
Οι κανόνες πρέπει να καλύπτουν κάθε φυσική ή ψηφιακή δραστηριότητα τεχνητής νοημοσύνης που προκαλεί ζημία ή βλάβη στη ζωή, την υγεία, τη σωματική ακεραιότητα ή την περιουσία, ή προκαλεί σημαντική ηθική βλάβη που οδηγεί σε «επαληθεύσιμη οικονομική ζημία». Οι τεχνολογίες τεχνητής νοημοσύνης υψηλού κινδύνου δεν είναι ακόμη διαδεδομένες, ωστόσο οι ευρωβουλευτές υποστηρίζουν ότι οι χειριστές σχετικών συστημάτων πρέπει να διαθέτουν ασφάλιση ανάλογη με εκείνη που προβλέπεται για τα μηχανοκίνητα οχήματα.
Η νομοθετική πρωτοβουλία εγκρίθηκε με 626 ψήφους υπέρ, 25 ψήφους κατά και 40 αποχές.
Δικαιώματα διανοητικής ιδιοκτησίας
Προκειμένου η ΕΕ να αναλάβει ηγετικό ρόλο στο πεδίο της τεχνητής νοημοσύνης, η έκθεση του Stéphane Séjourné (Renew Europe, Γαλλία) καθιστά σαφές ότι απαιτείται ένα αποτελεσματικό σύστημα για τα δικαιώματα διανοητικής ιδιοκτησίας, καθώς και δικλείδες ασφαλείας για την προστασία καινοτόμων προγραμματιστών μέσω του συστήματος διπλωμάτων ευρεσιτεχνίας της ΕΕ. Ωστόσο, οι απαιτήσεις αυτές δεν πρέπει να αποβούν εις βάρος των συμφερόντων των ανθρώπων-δημιουργών, ούτε και των δεοντολογικών αρχών της ΕΕ.
Οι ευρωβουλευτές υποστηρίζουν ότι είναι σημαντικό να γίνει διάκριση μεταξύ των ανθρώπινων δημιουργιών που υποβοηθούνται από την τεχνητή νοημοσύνη και των δημιουργιών που παράγονται αυτόνομα από την τεχνητή νοημοσύνη. Διευκρινίζουν ότι τα συστήματα τεχνητής νοημοσύνης δεν θα πρέπει να έχουν νομική προσωπικότητα, συνεπώς τα δικαιώματα διανοητικής ιδιοκτησίας θα ανήκουν αποκλειστικά σε ανθρώπους. Το κείμενο εξετάζει περαιτέρω θέματα πνευματικής ιδιοκτησίας, συλλογής δεδομένων, εμπορικού απορρήτου, χρήσης αλγορίθμων και βαθιά ψευδών πληροφοριών («deep fakes»).
Η έκθεση εγκρίθηκε με 612 ψήφους υπέρ, 66 κατά και 12 αποχές.
Πηγή: https://www.europarl.europa.eu/news/el/press-room/20201016IPR89544/parliament-leads-the-way-on-first-set-of-eu-rules-for-artificial-intelligence
Recommended Comments
Δεν υπάρχουν σχόλια για προβολή.
Δημιουργήστε ένα λογαριασμό ή συνδεθείτε προκειμένου να αφήσετε κάποιο σχόλιο
Πρέπει να είστε μέλος για να μπορέσετε να αφήσετε κάποιο σχόλιο
Δημιουργία λογαριασμού
Κάντε μια δωρεάν εγγραφή στην κοινότητά μας. Είναι εύκολο!
Εγγραφή νέου λογαριασμούΣύνδεση
Εάν έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.
Συνδεθείτε τώρα