Νομοθεσία για Ai ( EU AI Act ) 2024

EU AI Act

Νομοθεσία για Ai – EU AI Act

Νομοθεσία για Ai - EU AI Act Τον τελευταίο χρόνο  με τις ραγδαίες τεχνολογικές εξελίξεις στον κλάδο της τεχνητής νοημοσύνης (ΑΙ) δημιουργήθηκε η ανάγκη λήψης  ορισμένων μέτρων προστασίας, προκειμένου οι χρήστες εργαλείων τεχνητής νοημοσύνης ή όσων απλά τα δεδομένα υπόκεινται σε επεξεργασία από εργαλεία ai  να μην γίνονται αντικείμενο αυθαιρεσιών και καταχρήσεων.

Προκειμένου λοιπόν να εξασφαλιστεί η προστασία των χρηστών , την Τετάρτη στις 13/3/2024 ψηφίστηκε, από το Ευρωπαϊκό κοινοβούλιο, ένας νέος νόμος που έχει ως απώτερο σκοπό την:

  • Βελτίωση της ασφάλειας των AI εργαλείων/εφαρμογών .
  • Συμμόρφωσή τους με τα θεμελιώδη δικαιώματα.
  • Προώθηση της καινοτομίας στα πλαίσια της Ευρωπαϊκής Ένωσης.

Η εν λόγω πράξη, είναι μείζονος σημασίας και θεωρείται ένα σημαντικό ρυθμιστικό πλαίσιο που σχεδιάστηκε με στόχο για να γίνει πιο ελεγχόμενη και ασφαλής η χρήση της τεχνητής νοημοσύνης.

Γενικές αρχές για την τεχνητή νοημοσύνη βάσει της EU AI Act

 

Υπάρχει ένα νέο σύνολο έξι γενικών αρχών που ισχύουν για όλα τα συστήματα τεχνητής νοημοσύνης: (1) ανθρώπινη δράση και εποπτεία, (2) τεχνική ευρωστία και ασφάλεια, (3) προστασία της ιδιωτικής ζωής και διακυβέρνηση δεδομένων, (4) διαφάνεια, (5) ποικιλομορφία, μη διάκριση και δικαιοσύνη και (6) κοινωνική και περιβαλλοντική ευημερία.

Αυτές θα πρέπει να αποτελούν το πρώτο “check point”  για τους οργανισμούς  και τους φορείς εκμετάλλευσης τεχνολογιών ai  και  αναμένεται από αυτούς  να καταβάλλουν κάθε δυνατή προσπάθεια για τη συμμόρφωσή τους με αυτές.

Λειτουργίες της νομοθεσίας EU AI Act

 

Η νέα νομοθεσία ταξινομεί σε κατηγορίες τις εφαρμογές και τα εργαλεία που χρησιμοποιούν AI, ανάλογα με το επίπεδο επικινδυνότητας τους. Τα επίπεδα χωρίζονται σε 4 κατηγορίες : Απαράδεκτο , χαμηλό , μεσαίο και υψηλό κίνδυνο.

Ο κανονισμός αναφέρει ότι τα AI tools που θα χαρακτηριστούν ως απαράδεκτα, θα απαγορευθούν, ενώ όσα χαρακτηριστούν ως υψηλού κινδύνου θα έρθουν αντιμέτωπα με αυστηρές δεσμεύσεις και περιορισμούς.

Ο κανονισμός θα ξεκινήσει να ισχύει στο τέλος του Μαΐου μετά από μερικούς επιπρόσθετους ελέγχους και την τελική του έγκριση από το Ευρωπαϊκό Συμβούλιο, με στόχο να αρχίζει να εφαρμόζεται από το 2025.

Νομοθεσία για Ai  και ποια είναι τα συστήματα AI υψηλής επικινδυνότητας

 

Τα υψηλής επικινδυνότητας συστήματα AI αντιμετωπίζουν εκτεταμένες απαιτήσεις, συμπεριλαμβανομένων των εξής:

  • Σύστηµα διαχείρισης κινδύνων: Η νομοθεσία απαιτεί από τα συστήματα υψηλής επικινδυνότητας να υποβάλλονται σε αξιολογήσεις επιπτώσεων στα θεμελιώδη δικαιώματα και στην προστασία δεδομένων, καθώς και σε συστηματική διαχείριση κινδύνων καθ’ όλο τον κύκλο ζωής τους​.
  • Υψηλής ποιότητας σετ δεδομένων για εκπαίδευση, επικύρωση και δοκιμή: Οι προμηθευτές των συστημάτων AI θα πρέπει να εξασφαλίζουν την ποιότητα και την ακρίβεια των δεδομένων εκπαίδευσης (data sets ) και των αποτελεσμάτων, και να καταγράφουν τυχόν σοβαρά περιστατικά αποκλίσεων ή δυνατές διορθωτικές ενέργειες.
  • Τεχνικό εγχειρίδιο: Απαιτούνται λεπτομερείς πληροφορίες για την εκπαίδευση, την επικύρωση, και τη δοκιμή των δεδομένων, καθώς και για τη διαδικασία και τα μέτρα ελέγχου της ποιότητας.
  • Διατήρηση αρχείων: Το άρθρο 12 του EU AI Act αναφέρει ότι η διατήρηση αρχείων αφορά τη συστηματική διαδικασία καταγραφής και συντήρησης εγγραφών ή καταγραφών συμβάντων, ιδιαίτερα όταν αυτά παράγονται και διατηρούνται από συστήματα AI υψηλού κινδύνου. Αυτό περιλαμβάνει τη λεπτομερή καταγραφή κάθε δράσης του συστήματος, όπως την καταγραφή σημαντικών στιγμών, εξασφαλίζοντας τη διαφάνεια και την ανιχνευσιμότητα καθ’ όλη τη διάρκεια ζωής του συστήματος​.
  • ∆ιαφάνεια και ενηµέρωση των χρηστών: Η νομοθεσία απαιτεί την επισήμανση του περιεχομένου που δημιουργείται από AI και  την ενημέρωση των χρηστών όταν αλληλεπιδρούν με συστήματα AI. Επιπλέον, πρέπει να σχεδιαστούν έτσι ώστε τα περιεχόμενα που δημιουργούνται από AI να είναι δυνατό να ανιχνευθούν
  • Ανθρώπινη επιτήρηση: Η νομοθεσία επιβάλλει απαιτήσεις για ανθρώπινη επιτήρηση σε συστήματα υψηλής επικινδυνότητας, εξασφαλίζοντας ότι οι αποφάσεις που λαμβάνονται από τα συστήματα AI μπορούν να επανεξεταστούν από ανθρώπους.
  • Ακρίβεια, αξιοπιστία και ασφάλεια στον κυβερνοχώρο:  Οι πάροχοι συστημάτων AI υποχρεούνται να λαμβάνουν κατάλληλα μέτρα για την εξασφάλιση της ακρίβειας, της αξιοπιστίας και της ασφάλειας των συστημάτων τους καθώς και να παρέχουν πληροφορίες σχετικά με την κατανάλωση ενέργειας των μοντέλων.

Οι δεσμεύσεις αυτές ισχύουν για τους παρόχους, τους εισαγωγείς, τους διανομείς και τους χρήστες συστημάτων AI υψηλού κινδύνου σε όλη την αλυσίδα αξίας. Με τον χαρακτηρισμό ως υψηλού κινδύνου και τις συναφείς απαιτήσεις η νομοθεσία επιδιώκει να εγγυηθεί την ασφαλή, διαφανή και αξιόπιστη ΑΙ που σέβεται τα θεμελιώδη δικαιώματα των ατόμων στην ΕΕ.

Παραδείγματα συστημάτων υψηλού κινδύνου

 

Με βάση τα αποτελέσματα της αναζήτησης, ακολουθούν ορισμένα βασικά παραδείγματα συστημάτων AI υψηλού κινδύνου σύμφωνα με τον νόμο της ΕΕ για την τεχνητή νοημοσύνη:

Νομοθεσία για Ai και βιομετρικά συστήματα αναγνώρισης και κατηγοριοποίησης:

Νομοθεσία για Ai και βιομετρικά συστήματα αναγνώρισης

  • Απομακρυσμένα βιομετρικά συστήματα ταυτοποίησης (με ορισμένες εξαιρέσεις για την επιβολή του νόμου). Η χρήση απομακρυσμένων βιομετρικών συστημάτων ταυτοποίησης από τις αρχές επιβολής του νόμου εγείρει σημαντικές επιπτώσεις στα θεμελιώδη δικαιώματα των ανθρώπων, αν και η τεχνολογία αυτή έχει τη δυνατότητα να στηρίξει την καταπολέμηση της τρομοκρατίας και την επίλυση σοβαρών εγκλημάτων.
  • Συστήματα AI που χρησιμοποιούνται για βιομετρική κατηγοριοποίηση με βάση ευαίσθητα ή προστατευόμενα χαρακτηριστικά. Ο EU AI Act προβλέπει την πλήρη απαγόρευση συστημάτων AI που εφαρμόζουν βιομετρική κατηγοριοποίηση βασιζόμενα σε ευαίσθητα χαρακτηριστικά όπως φύλο, φυλή, εθνικότητα, θρησκεία, πολιτικό προσανατολισμό​. Μπορείτε να μάθετε περισσότερα στο άρθρο του skadden.com κάνοντας κλικ εδώ
  • Συστήματα AI που χρησιμοποιούνται για την αναγνώριση συναισθημάτων. Το τελικό σχέδιο του EU AI Act αναφέρει την απαγόρευση των συστημάτων αναγνώρισης συναισθημάτων σε πραγματικό χρόνο, εστιάζοντας στην απαγόρευση της χρήσης τέτοιων συστημάτων AI για την εκτίμηση συναισθημάτων φυσικών προσώπων στον χώρο εργασίας και σε εκπαιδευτικά ιδρύματα, εκτός αν χρησιμοποιούνται για ιατρικούς ή ασφαλείας λόγους. Μπορείτε να διαβάσετε περισσότερα σχετικά με το ζήτημα στο ενδιαφέρον άρθρο του modulos.ai εδώ

Νομοθεσία για Ai και συστήματα διαχείρισης και λειτουργίας κρίσιμων υποδομών:

 

Το EU AI Act κατατάσσει τα συστήματα AI που χρησιμοποιούνται ως στοιχεία ασφάλειας στη διαχείριση και λειτουργία κρίσιμων ψηφιακών υποδομών, όπως οδική κυκλοφορία, ύδρευση, φυσικό αέριο, θέρμανση, και παροχή ηλεκτρικής ενέργειας, ως συστήματα υψηλού κινδύνου. Αυτό γίνεται γιατί η αποτυχία ή δυσλειτουργία τους θα μπορούσε να θέσει σε κίνδυνο τη ζωή και την υγεία των ανθρώπων σε μεγάλη κλίμακα και να προκαλέσει σημαντικές διακοπές στην κανονική διεξαγωγή κοινωνικών και οικονομικών δραστηριοτήτων.

Νομοθεσία για Ai και συστήματα εκπαίδευσης και επαγγελματικής κατάρτισης:

 

  • AI συστήματα καθορίζουν την πρόσβαση ή την αποδοχή ατόμων σε εκπαιδευτικά και επαγγελματικά ιδρύματα κατάρτισης, δηλαδή στη χρήση τεχνητής νοημοσύνης για να αποφασίζει ποιοι μαθητές ή επαγγελματίες πρέπει να γίνουν δεκτοί, να εγγραφούν, ή να τοποθετηθούν σε συγκεκριμένα εκπαιδευτικά ή επαγγελματικά προγράμματα. Αυτό μπορεί να επηρεάσει σημαντικά την εκπαιδευτική και επαγγελματική πορεία ενός ατόμου.
  • AI συστήματα χρησιμοποιούνται για την αξιολόγηση των μαθησιακών αποτελεσμάτων και την καθοδήγηση της εκπαιδευτικής διαδικασίας.
  • AI συστήματα που αξιολογούν τα κατάλληλα επίπεδα εκπαίδευσης για μεμονωμένα άτομα.

Δεν πρέπει να ξεχνάμε ότι ήδη στην χώρα μας παρέχονται προγράμματα σπουδών για την τεχνητή νοημοσύνη , εξειδικευμένα σεμινάρια για το chatgpt και άλλες δημοφιλείς εφαρμογές ai με ένα πλήθος δημοσίων υπαλλήλων , εκπαιδευτικών να τα παρακολουθούν κάτι που σημαίνει ότι ο ρυθμός διάδοσης και χρήσης τους επιταχύνεται.

Παραδείγματα:

 

Αξιολόγηση Μαθησιακών Αποτελεσμάτων και Καθοδήγηση Εκπαιδευτικής Διαδικασίας: Συστήματα AI αναλύουν τις απαντήσεις των μαθητών σε διάφορες ασκήσεις ή τεστ για να εντοπίζουν περιοχές δυσκολίας ή ισχυρά σημεία. Βασιζόμενα σε αυτή την ανάλυση, το σύστημα μπορεί να προσαρμόσει το εκπαιδευτικό υλικό ή να προτείνει συγκεκριμένες δραστηριότητες ανάλογα με τις ανάγκες του κάθε μαθητή.

Αξιολόγηση Κατάλληλων Επιπέδων Εκπαίδευσης: Συστήματα AI μπορούν να εξετάσουν το ιστορικό επιδόσεων ενός μαθητή και να συγκρίνουν τις ικανότητες του με τα πρότυπα απαιτήσεων διάφορων εκπαιδευτικών προγραμμάτων.

Με βάση αυτή την ανάλυση, το σύστημα μπορεί να προτείνει το πιο κατάλληλο εκπαιδευτικό πρόγραμμα ή επίπεδο για τον μαθητή, βοηθώντας έτσι στην αποδοτικότερη αξιοποίηση των εκπαιδευτικών πόρων.

Απασχόληση, διαχείριση των εργαζομένων και πρόσβαση στην αυτοαπασχόληση:

 

Σύμφωνα με το EU AI Act, οι εργοδότες που χρησιμοποιούν AI για προσλήψεις, αξιολόγηση υποψηφίων, και εργασιακές αποφάσεις θα υπόκεινται σε σημαντικές ρυθμιστικές υποχρεώσεις. Τα συστήματα αυτά θα πρέπει να είναι ελεύθερα από προκαταλήψεις και να εξασφαλίζουν την ισότητα και μη διάκριση.

Επιπλέον, οι εργοδότες πρέπει να επικυρώνουν αυτοματοποιημένες αποφάσεις πριν την έναρξη οποιασδήποτε διαδικασίας διαχείρισης απόδοσης και να κρατούν ενημερωμένους τους εργαζομένους σχετικά με τη χρήση AI στη λήψη αποφάσεων.

Οι εργοδότες που βασίζονται σε μεγάλο βαθμό στην τεχνολογία ΤΝ για την πρόσληψη, την αξιολόγηση των εργαζομένων και τη λήψη αποφάσεων πρέπει να δώσουν ιδιαίτερη προσοχή στον νόμο της ΕΕ για την ΤΝ. Αυτά τα συστήματα ΤΝ υψηλού κινδύνου συνοδεύονται από τις υψηλότερες υποχρεώσεις συμμόρφωσης.

Για να διασφαλιστεί η συμμόρφωση, οι οργανισμοί πρέπει να εξαλείψουν τη μεροληψία από τα αποτελέσματα των αποφάσεων ΤΝ, όπως επιτάσσει ο νόμος. Αυτό επεκτείνεται πέραν των προστατευόμενων χαρακτηριστικών για να συμπεριλάβει όλες τις πιθανές προκαταλήψεις, τονίζοντας τη σημασία της ίσης μεταχείρισης και της μη διάκρισης.

Επαλήθευση των αυτοματοποιημένων αποφάσεων και της επικοινωνίας με τους εργαζομένους

 

Για να συμμορφωθούν με τον νόμο της ΕΕ για την ΤΝ, οι εργοδότες πρέπει να επαληθεύουν τυχόν αυτοματοποιημένες αποφάσεις που λαμβάνονται από συστήματα ΤΝ πριν από την έναρξη οποιασδήποτε επίσημης διαδικασίας διαχείρισης της απόδοσης, ιδίως εάν η υποαπόδοση οδηγεί σε απόλυση.

Στο  άρθρο 22 του Γενικού Κανονισμού για την Προστασία Δεδομένων του Ηνωμένου Βασιλείου (ΓΚΠΔ του Ηνωμένου Βασιλείου) απαιτεί από τα άτομα να έχουν το δικαίωμα ανθρώπινης επαλήθευσης όταν οι αποφάσεις της τεχνητής νοημοσύνης τους επηρεάζουν σημαντικά. Οι εργοδότες  θα πρέπει να ενημερώνουν τους εργαζομένους σχετικά με τη χρήση της λήψης αποφάσεων με τεχνητή νοημοσύνη, ιδανικά μέσω της ανακοίνωσης απορρήτου του προσωπικού.

Δεοντολογία και πρόληψη μεροληψίας

 

Κεντρικό σημείο εστίασης του νόμου της ΕΕ για την τεχνητή νοημοσύνη είναι η πρόληψη της μεροληψίας στα συστήματα τεχνητής νοημοσύνης. Οι εργοδότες είναι ήδη υποχρεωμένοι από την υφιστάμενη εργατική νομοθεσία να αποφεύγουν τις διακρίσεις βάσει προστατευόμενων χαρακτηριστικών.

Ωστόσο, ο νόμος διευρύνει αυτή την υποχρέωση, απαιτώντας από τους παρόχους να διασφαλίζουν ότι τα εργαλεία ΤΝ είναι απαλλαγμένα από οποιαδήποτε προκατάληψη, ανεξάρτητα από τα εμπλεκόμενα χαρακτηριστικά. Οι εργοδότες πρέπει να παρακολουθούν προσεκτικά τα συστήματα ΤΝ τους για να αποτρέψουν ακούσιες προκαταλήψεις και πιθανές διακρίσεις.

Ο νόμος της ΕΕ για την ΤΝ εγκαινιάζει μια νέα εποχή ρύθμισης της ΤΝ, η οποία περιλαμβάνει τη χρήση της ΤΝ στην πρόσληψη, την αξιολόγηση των εργαζομένων και τις διαδικασίες λήψης αποφάσεων. Οι υπεύθυνοι προσλήψεων και οι εργοδότες πρέπει να εξοικειωθούν με τις απαιτήσεις του νόμου και να συμμορφωθούν με τις διατάξεις του για να αποφύγουν πιθανές κυρώσεις και να διασφαλίσουν δίκαιη μεταχείριση των εργαζομένων.

Καθώς ο νόμος της ΕΕ για την ΤΝ θέτει το πρότυπο για τη ρύθμιση της ΤΝ σε παγκόσμιο επίπεδο, οι οργανισμοί σε όλο τον κόσμο θα πρέπει να παρακολουθούν προσεκτικά την εξέλιξή του και να αναμένουν παρόμοια νομοθεσία στις αντίστοιχες δικαιοδοσίες τους.

Παραμένοντας ενήμεροι και προσαρμόζοντας αναλόγως τις πρακτικές τους στον τομέα της ΤΝ, οι εργοδότες μπορούν να περιηγηθούν με επιτυχία σε αυτή τη νέα εποχή της ρύθμισης της ΤΝ.

Αξιολόγηση της πρόσβασης σε βασικές δημόσιες και ιδιωτικές υπηρεσίες καταλληλότητας:

 

Σύμφωνα με την  νομοθεσία EU AI Act, τα AI συστήματα που χρησιμοποιούνται από δημόσιες αρχές για την αξιολόγηση της καταλληλότητας σε δημόσιες υπηρεσίες και παροχές, συμπεριλαμβανομένης της υγειονομικής περίθαλψης, καθώς και AI συστήματα που χρησιμοποιούνται για την αξιολόγηση ικανότητας πίστωσης ατόμων ή για τη θέσπιση πιστωτικών μονάδων, θα υπόκεινται σε σημαντικές ρυθμιστικές υποχρεώσεις.

Τα συστήματα αυτά θα πρέπει να πληρούν αυστηρές απαιτήσεις σχετικά με τη διαχείριση κινδύνων, την ποιότητα των δεδομένων, τη διαφάνεια, την ανθρώπινη επιτήρηση και την ακρίβεια.

Επιπροσθέτως, οι επιχειρήσεις που παρέχουν ή εφαρμόζουν αυτήν την τεχνολογία θα αντιμετωπίσουν υποχρεώσεις σχετικά με την εγγραφή, τη διαχείριση ποιότητας, την παρακολούθηση, τη διατήρηση αρχείων και την αναφορά περιστατικών.

Αυτό σημαίνει ότι η εφαρμογή των AI συστημάτων σε τομείς όπως η δημόσια υγεία και η πιστοληπτική ικανότητα θα πρέπει να γίνεται με τρόπο που σέβεται τις υψηλές προδιαγραφές ασφαλείας και δικαιοσύνης που καθορίζονται από τον EU AI Act​.

Απαιτήσεις για δεδομένα εκπαίδευσης: Τα σύνολα δεδομένων εκπαίδευσης, δοκιμών και επικύρωσης πρέπει να είναι “συναφή, επαρκώς αντιπροσωπευτικά, κατάλληλα ελεγμένα για σφάλματα και όσο το δυνατόν πληρέστερα ενόψει του επιδιωκόμενου σκοπού”.

Για όποιον έχει εργαστεί για την αδειοδότηση ιατρικών data sets για τους σκοπούς της εκπαίδευσης μοντέλων ΤΝ, θα είναι μια ανακούφιση να δει την ΕΕ να υιοθετεί μια πιο ρεαλιστική προσέγγιση της πραγματικότητας της ποιότητας των δεδομένων όταν αυτά παράγονται (π.χ.) στο πλαίσιο της δημόσιας υγείας (τουλάχιστον σε σύγκριση με τα προηγούμενα σχέδια του νόμου για την ΤΝ). Μπορείτε να διαβάσετε εδώ ένα ιδιαίτερα ενδιαφέρον σχετικό άρθρο .

Συστήματα επιβολής του νόμου

 

Μεταναστεύσεις, άσυλο και συστήματα διαχείρισης συνοριακών ελέγχων

 

Απονομή δικαιοσύνης και δημοκρατικές διαδικασίες

Νομοθεσία ai και δικαιοσύνη

  • AI συστήματα που  βοηθούν τις δικαστικές αρχές στην έρευνα και ερμηνεία των πραγματικών περιστατικών και του νόμου.
  • AI συστήματα χρησιμοποιούνται για να επηρεάσουν εκλογές, δημοψηφίσματα ή την εκλογική διαδικασία. Τον Ιανουάριο, δύο εταιρείες στο Τέξας κλωνοποίησαν τη φωνή του προέδρου Μπάιντεν για να αποθαρρύνουν την ψήφο στις προκριματικές εκλογές του Νιου Χάμσαϊρ. Δεν θα είναι η τελευταία φορά που η γεννητική τεχνητή νοημοσύνη ( generative AI ) κάνει μια ανεπιθύμητη εμφάνιση σε αυτόν τον εκλογικό κύκλο. Μπορείτε να διαβάσετε για το περιστατικό αυτό ένα πολύ ενδιαφέρον άρθρο στο εκτεταμένο ρεπορτάζ του msn.com κάνοντας κλικ εδώ

Άλλα βασικά παραδείγματα που έχουν αναφερθεί είναι τα εξής:

  • AI που βασίζεται σε διαγνωστικά εργαλεία για την υγειονομική περίθαλψη, όπως αλγόριθμοι που αναλύουν ιατρικές εικόνες για την ανίχνευση ανωμαλιών, τα οποία εντάσσονται στον κανονισμό για τα ιατροτεχνολογικά προϊόντα.
  • AI συστήματα που χρησιμοποιούνται ως εξαρτήματα ασφαλείας σε προϊόντα που καλύπτονται από τη νομοθεσία εναρμόνισης της ΕΕ, όπως παιχνίδια, μηχανήματα κ.λπ.

Ο χαρακτηρισμός ως υψηλού κινδύνου εξαρτάται από τον σκοπό για τον οποίο προορίζεται το σύστημα AI και τον κίνδυνο βλάβης που προκαλεί στην υγεία, την ασφάλεια και τα θεμελιώδη δικαιώματα. Τα AI συστήματα υψηλού κινδύνου πρέπει να ικανοποιούν υψηλές απαιτήσεις σχετικά με τη διαχείριση κινδύνου, την ποιότητα των δεδομένων, την ανθρώπινη εποπτεία, τη διαφάνεια και την ευρωστία, ώστε να διασφαλιστεί η ασφάλεια και η συμμόρφωσή τους.

Απαιτήσεις της EU AI Act

 

Η νέα νομοθεσία EU AI Act , προβλέπει όλα τα AI Tools να τηρούν ορισμένες υποχρεώσεις και να ακολουθούν συγκεκριμένους κανονισμούς. Είναι αναγκαίο, να υπάρχει λεπτομερής και σαφής ενημέρωση προς του χρήστες όταν αλληλεπιδρούν με ένα σύστημα που χρησιμοποιεί τεχνητή νοημοσύνη.

  • Ο χρήστης πρέπει να μπορεί να διαβάσει και να δώσει την συγκατάθεση του στα προσωπικά δεδομένα του που θέλει να χρησιμοποιήσει η εφαρμογή κατά την χρήση της. Το gdpr και η τεχνητή νοημοσύνη εμπλέκονται ολοένα και περισσότερο και είναι σίγουρο ότι είναι ένα από τα ζητήματα που πρόκειται να μας απασχολήσει έντονα στο άμεσο μέλλον.
  • Τα συστήματα υψηλού κινδύνου πρέπει να αξιολογηθούν πριν από την κυκλοφορία τους στον χώρο της αγοράς, καθώς και να εξετάζονται περιστασιακά καθόλη την διάρκεια της «ζωής» τους.
  • Πρέπει να γίνεται αναφορά και καταγραφή των σοβαρών σημαντικών περιστατικών.
  • Οι εθνικές αρχές θα παρέχουν ελεγχόμενα περιβάλλοντα για πειράματα και δοκιμές του AI , για να πρoσομοιώσουν πραγματικές συνθήκες πριν βγει στην αγορά μια εφαρμογή τεχνητής νοημοσύνης.
  • Αν κάποιος δεν συμμορφωθεί με τους όρους αυτό μπορεί να οδηγήσει σε πρόστιμα για την επιχείρηση.
  • Διαφορετικοί κανόνες θα εφαρμοστούν σε διαφορετικές χρονικές περιόδους μετά από την εφαρμογή του νόμου.

Εν κατακλείδι , ο νέος νόμος έχει ως στόχο να διασφαλίσει ότι οι εφαρμογές που χρησιμοποιούν τεχνητή νοημοσύνη μέσα στα πλαίσια της Ε.Ε , είναι ασφαλείς για όλους τους χρήστες, σέβονται τα πνευματικά δικαιώματα των χρηστών και ενισχύουν την καινοτομία μέσω μιας ισορροπημένης προσέγγιση της ρύθμισης.

5/5 - (2 votes)

Αφήστε ένα Σχόλιο

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *