Categories: Technology

Τεχνητή νοημοσύνη: ΕΕ και ΗΠΑ επεξεργάζονται έναν κοινό «κώδικα δεοντολογίας»


Η ΕΕ και οι ΗΠΑ ανακοίνωσαν σχέδιο σύνταξης ενός κοινού «κώδικα δεοντολογίας» για την τεχνητή νοημοσύνη (AI), σε μια περίοδο που οι μεγάλες δυνάμεις εξετάζουν τη θέσπιση ρυθμιστικών κανόνων.

«Τις επόμενες εβδομάδες θα παρουσιάσουμε το σχέδιο του κώδικα δεοντολογίας για την τεχνητή νοημοσύνη», είπε η Επίτροπος Ανταγωνισμού Μαργκέτε Βεστάγκερ, σε συνέντευξη Τύπου που παραχώρησε στη Σουηδία μαζί με τον υπουργό Εξωτερικών των ΗΠΑ Άντονι Μπλίνκεν.

ΤΟ ΑΡΘΡΟ ΣΥΝΕΧΙΖΕΙ ΜΕΤΑ ΤΗΝ ΔΙΑΦΗΜΙΣΗ

Ο στόχος είναι «να καθοριστούν εθελοντικοί κανόνες που θα είναι ανοιχτοί σε όλες τις χώρες οι οποίες συμμερίζονται τις ίδιες αξίες», διευκρίνισε ο τελευταίος. Βασική ιδέα είναι να παρουσιαστεί «πολύ, πολύ σύντομα» μια οριστική πρόταση επί της οποίας «θα μπορούσαν να δεσμευτούν εθελοντικά» οι αμερικανικοί κολοσσοί του τομέα, όπως η Microsoft, η Meta και η Google, εξήγησε η Βεστάγκερ.

Αυτή είναι η ομιλία που εκφώνησε η Δανή πρωθυπουργός στη Βουλή και είχε γραφτεί από τεχνητή νοημοσύνη

ΒΒC: Η τεχνητή νοημοσύνη θα μπορούσε να οδηγήσει την ανθρωπότητα σε εξαφάνιση, προειδοποιούν οι ειδικοί

Το θέμα της τεχνητής νοημοσύνης ήταν ένα από τα βασικότερα κατά τη σύνοδο του Συμβουλίου Εμπορίου και Τεχνολογίας (CCT) που διεξήχθη στην πόλη Λουλέο της βόρειας Σουηδίας. Το παρών έδωσε και ο δημιουργός του επαναστατικού ρομπότ ChatGPT, Σαμ Άλτμαν.

To CCT, στο οποίο μετέχουν οι ΗΠΑ και η ΕΕ, ιδρύθηκε το 2021 με στόχο να γυρίσουν οι δύο πλευρές σελίδα στις «εμπορικές αναταράξεις» της προεδρίας Τραμπ.

ΤΟ ΑΡΘΡΟ ΣΥΝΕΧΙΖΕΙ ΜΕΤΑ ΤΗΝ ΔΙΑΦΗΜΙΣΗ

Τεχνητή Νοημοσύνη: ΕΕ και ΗΠΑ συμμερίζονται πως προσφέρει μεγάλες ευκαιρίες αλλά και κινδύνους

«Η ΕΕ και οι ΗΠΑ συμμερίζονται την κοινή άποψη ότι οι τεχνολογίες τεχνητής νοημοσύνης προσφέρουν μεγάλες ευκαιρίες αλλά ταυτόχρονα παρουσιάζουν και κινδύνους για την κοινωνία μας», ανέφεραν στο τελικό ανακοινωθέν τους.

Η ΕΕ θέλει να είναι η πρώτη στον κόσμο που θα αποκτήσει πλήρες και υποχρεωτικό νομοθετικό πλαίσιο ώστε να περιοριστούν οι κίνδυνοι της τεχνητής νοημοσύνης, όμως δεν θα τεθεί σε εφαρμογή πριν από τα τέλη του 2025. Η Κίνα έχει επίσης κάποια σχέδια για την εφαρμογή ενός ρυθμιστικού πλαισίου με το οποίο θα επιτηρείται η ασφάλεια των εργαλείων τεχνητής νοημοσύνης. Στην Ουάσινγκτον, παρά τις πολλές συζητήσεις, δεν υπάρχει προς το παρόν στο τραπέζι κανένα υποχρεωτικό πλαίσιο.

Αμερικανοί και Ευρωπαίοι φοβούνται ότι αν η Δύση δεν ενωθεί εγκαίρως, τα κινεζικά πρότυπα θα επικρατήσουν.

ΠΕΡΙΣΣΟΤΕΡΑ ΒΙΝΤΕΟ

Ακολουθήστε το στο Google News και μάθετε πρώτοι όλες τις ειδήσεις
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, στο 



Πηγή

iTech News

Leave a Comment

Recent Posts

Τεχνητή νοημοσύνη: Υποτροφίες σε στελέχη επιχειρήσεων-μελών του δίνει το ΕΒΕΑ, για εκπαιδευτικό πρόγραμμα

Την προσφορά υποτροφιών εκπαιδευτικού προγράμματος για στελέχη επιχειρήσεων-μελών του αποφάσισε το EBEA, με στόχο την…

7 ώρες ago

Αυτό είναι το εξωφρενικό κόστος για το φιλόδοξο φουτουριστικό project της Σαουδικής Αραβίας [Video]

Το απίστευτα φιλόδοξο σχέδιο της Σαουδικής Αραβίας να μεταμορφώσει τη χώρα της με το γιγαντιαίο…

10 ώρες ago

Ερευνητές ανακάλυψαν πως να ενεργοποιούν τον «διακόπτη θανάτου» των καρκινικών κυττάρων

Η εναλλακτική συρραφή του RNA είναι σαν να κόβει και να αναδιατάσσει ο μοντέρ μιας…

11 ώρες ago

Η Apple φέρνει end-to-end κρυπτογράφηση στα RCS μηνύματα από iOS σε Android

Η GSM Association δημοσίευσε τις νέες προδιαγραφές RCS που επιτρέπουν την end-to-end κρυπτογράφηση σε όλες…

11 ώρες ago

Όλα στο… Ultra, με δύο αστερίσκους

Ο μεγάλος πρωταγωνιστής του φετινού MWC 2025 στον τομέα των smartphones δεν είναι άλλος από…

11 ώρες ago

Αυτό είναι το νέο πανίσχυρο τηλεσκόπιο της NASA ως ο διάδοχος του Hubble

Το περασμένο καλοκαίρι, η NASA άνοιξε ένα νέο γραφείο στο Κέντρο Διαστημικών Πτήσεων Goddard, αφιερωμένο…

12 ώρες ago

Αυτό το site χρησιμοποιεί cookies, για την παροχή των υπηρεσιών της, να προσαρμόσετε τις διαφημίσεις και να αναλύσει την επισκεψιμότητα. Με τη χρήση αυτής της ιστοσελίδας, συμφωνείτε με τη πολιτική χρήση των cookies.