Η Google ανακοίνωσε την πρόθεσή της να υπογράψει τον κώδικα δεοντολογίας της Ευρωπαϊκής Ένωσης για την Τεχνητή Νοημοσύνη, ένα εθελοντικό αλλά στρατηγικής σημασίας πλαίσιο που επιδιώκει να καθοδηγήσει τους προγραμματιστές Τεχνητής Νοημοσύνης στη δημιουργία και λειτουργία συστημάτων συμβατών με τις διατάξεις του νέου Κανονισμού της ΕΕ. Η πρωτοβουλία αυτή αποκτά ιδιαίτερη σημασία καθώς πλησιάζει η ημερομηνία έναρξης ισχύος των νέων κανόνων για τα «μοντέλα γενικής χρήσης με συστημικό κίνδυνο», οι οποίοι τίθενται σε εφαρμογή στις 2 Αυγούστου.
Σε αντίθεση με τη Meta, η οποία αρνήθηκε να προσυπογράψει τον κώδικα δηλώνοντας ότι η ευρωπαϊκή προσέγγιση αποτελεί «υπερβολή» και υποστηρίζοντας πως η ΕΕ ακολουθεί λανθασμένη κατεύθυνση σε σχέση με την Τεχνητή Νοημοσύνη, η Google φαίνεται να προσπαθεί να κρατήσει ισορροπίες. Από την πλευρά του, ο Κεντ Γόλκερ, πρόεδρος παγκόσμιων υποθέσεων της Google, αναγνώρισε σε ανάρτησή του ανέφερε ότι η τελική εκδοχή του κώδικα είναι βελτιωμένη σε σχέση με το αρχικό σχέδιο της Επιτροπής, αν και δεν παρέλειψε να εκφράσει επιφυλάξεις. Εκτός αυτών, επισήμανε ότι συγκεκριμένες απαιτήσεις του νόμου, όπως η ανάγκη αποκάλυψης εμπορικών μυστικών ή οι διαφοροποιήσεις από τη νομοθεσία περί πνευματικών δικαιωμάτων, ενδέχεται να αποτελέσουν τροχοπέδη για την καινοτομία και να πλήξουν την ανταγωνιστικότητα των ευρωπαϊκών μοντέλων.
Πρακτικά, με την υπογραφή του κώδικα, οι εταιρείες αναλαμβάνουν την ευθύνη να τηρούν συγκεκριμένες κατευθυντήριες γραμμές, όπως η παροχή διαφανούς τεκμηρίωσης για τα εργαλεία τους, η αποφυγή χρήσης πειρατικού περιεχομένου για εκπαίδευση μοντέλων, καθώς και ο σεβασμός στα αιτήματα των δημιουργών περιεχομένου να εξαιρεθούν τα έργα τους από τα σύνολα δεδομένων.
Ο ευρωπαϊκός νόμος για την Τεχνητή Νοημοσύνη αποτελεί τον πρώτο του είδους του σε παγκόσμιο επίπεδο και υιοθετεί μια προσέγγιση βασισμένη στον κίνδυνο. Με άλλα λόγια, απαγορεύει ορισμένες πρακτικές που κρίνονται ως «απαράδεκτου κινδύνου», όπως η γνωστική χειραγώγηση και η κοινωνική βαθμολόγηση, ενώ εισάγει αυστηρούς κανόνες για τις χρήσεις υψηλού κινδύνου, όπως η βιομετρική αναγνώριση, η χρήση σε τομείς όπως η υγεία, η εκπαίδευση και η εργασία. Οι προγραμματιστές καλούνται να καταχωρούν τα συστήματά τους, να εφαρμόζουν διαδικασίες διαχείρισης κινδύνου και να συμμορφώνονται με αυστηρές υποχρεώσεις διαφάνειας και ασφάλειας.