Categories: Technology

Η Βρετανία δημοσίευσε τη «Διακήρυξη του Μπλέτσλεϊ» για την ασφάλεια της τεχνητής νοημοσύνης


Η Βρετανία δημοσιοποίησε τη «Διακήρυξη του Μπλέτσλεϊ» που συμφωνήθηκε με διάφορες χώρες, μεταξύ των οποίων ΗΠΑ και Κίνα, με σκοπό να ενισχυθούν οι παγκόσμιες προσπάθειες για συνεργασία στην ασφάλεια της τεχνητής νοημοσύνης.

Η διακήρυξη, που υπογράφεται από 28 χώρες και από την Ευρωπαϊκή Ένωση, δημοσιοποιήθηκε κατά την πρώτη ημέρα της Συνόδου για την Ασφάλεια της Τεχνητής Νοημοσύνης που διεξάγεται στο Μπλέτσλεϊ Παρκ, στην κεντρική Αγγλία.

Βρετανία: Η διακήρυξη ενθαρρύνει τη διαφάνεια και τη λογοδοσία από παράγοντες που αναπτύσουν τεχνολογία AI

«Η Διακήρυξη ικανοποιεί σημαντικούς στόχους της συνόδου εγκαθιδρύοντας κοινή συμφωνία και ευθύνη για τους κινδύνους, τις ευκαιρίες και μία διαδικασία προς τα εμπρός για διεθνή συνεργασία για την ασφάλεια και την έρευνα της frontier AI, ιδιαίτερα μέσω μεγαλύτερης επιστημονικής συνεργασίας», ανέφερε η Βρετανία σε ξεχωριστή δήλωση που συνοδεύει τη διακήρυξη.

Η διακήρυξη ενθαρρύνει τη διαφάνεια και τη λογοδοσία από παράγοντες που αναπτύσσουν τεχνολογία frontier AI στα σχέδιά τους να μετρήσουν, να επιτηρήσουν και να μετριάσουν δυνητικά επιβλαβείς δυνατότητες.

Η τεχνητή νοημοσύνη στην μάχη των πυρκαγιών, μέσα σε 2′ -Τι έγινε στην πρώτη δοκιμή

Απίθανο: Η τεχνητή νοημοσύνη απαντά πώς φαντάζονται οι Αμερικανοί τους Ευρωπαίους -Η φωτό του Έλληνα

Βρετανία: «Επιτακτικό να κατανοηθούν οι κίνδυνοι της τεχνητής νοημοσύνης» τονίζει ο Σούνακ

«Είναι ένα επίτευγμα ορόσημο όπου οι μεγαλύτερες δυνάμεις του κόσμου στην τεχνητή νοημοσύνη συμφωνούν ότι είναι επιτακτικό να κατανοηθούν οι κίνδυνοι της τεχνητής νοημοσύνης — βοηθώντας να διασφαλιστεί το μακροπρόθεσμο μέλλον των παιδιών και των εγγονιών μας», δήλωσε ο Βρετανός πρωθυπουργός Ρίσι Σούνακ.

ΤΟ ΑΡΘΡΟ ΣΥΝΕΧΙΖΕΙ ΜΕΤΑ ΤΗΝ ΔΙΑΦΗΜΙΣΗ

Η διακήρυξη θέτει μια ατζέντα που εστιάζει στην ταυτοποίηση των κινδύνων κοινής ανησυχίας και στην οικοδόμηση επιστημονικής αντίληψης για αυτούς, και επίσης στην οικοδόμηση διακρατικών πολιτικών προκειμένου αυτοί να μετριαστούν.

«Αυτό περιλαμβάνει, μαζί με αυξημένη διαφάνεια από ιδιωτικούς παράγοντες που αναπτύσσουν δυνατότητες frontier AI, κατάλληλη αποτίμηση των μεθόδων μέτρησης, εργαλεία για ασφαλή δοκιμή, και ανάπτυξη σχετικών ικανοτήτων του δημόσιου τομέα και επιστημονικής έρευνας», αναφέρεται στη διακήρυξη.

Η frontier AI αποτελείται από μοντέλα τεχνητής νοημοσύνης που προσφέρουν εξαιρετικά υψηλές δυνατότητες και πιστεύεται ότι θα μπορούσαν να διαδραματίσουν ρόλο στην αντιμετώπιση ορισμένων από τις πιο πιεστικές προκλήσεις για την ανθρωπότητα.

Ακολουθήστε το στο Google News και μάθετε πρώτοι όλες τις ειδήσεις
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, στο 



Πηγή

iTech News

Leave a Comment

Recent Posts

Επίσημα οι νέες πανίσχυρες κάρτες γραφικών ακόμα και για laptops! [CES 2025]

Η Nvidia ανακοίνωσε επίσημα στο πλαίσιο του CES 2025 τις GPUs της σειράς RTX 50.…

5 ώρες ago

Ανακοινώθηκε η τιμή του ηλεκτρικού αυτοκινήτου της εταιρείας [CES 2025]

Το CES 2025 μας έφερε σημαντικές πληροφορίες σχετικά με το επερχόμενο ηλεκτρικό αυτοκίνητο AFEELA των…

6 ώρες ago

Ανακοινώθηκε το πανίσχυρο και λεπτότερο gaming laptop της εταιρείας [CES 2025]

Η Razer ανακοίνωσε την επόμενη γενιά του gaming laptop Razer Blade 16 στο πλαίσιο της…

6 ώρες ago

Επίσημα το νέο πρότυπο με βελτιωμένο bandwidth και νέα χαρακτηριστικά

Στο πλαίσιο του CES 2025, το HDMI Forum ανακοίνωσε την άφιξη του νέου προτύπου HDMI…

6 ώρες ago

Η Samsung είναι έτοιμη να δείξει στην Apple τι πραγματικά σημαίνει τεχνητή νοημοσύνη

Η Samsung είναι έτοιμη να δείξει στην Apple τι πραγματικά σημαίνει τεχνητή νοημοσύνη - Newsbeast…

22 ώρες ago

Τεχνητή νοημοσύνη τύπου smartphone στις τηλεοράσεις της εταιρείας [CES 2025]

Η Samsung ανακοίνωσε την τεχνολογία Vision AI στο CES 2025, που πραγματοποιείται στο Las Vegas.…

1 ημέρα ago

Αυτό το site χρησιμοποιεί cookies, για την παροχή των υπηρεσιών της, να προσαρμόσετε τις διαφημίσεις και να αναλύσει την επισκεψιμότητα. Με τη χρήση αυτής της ιστοσελίδας, συμφωνείτε με τη πολιτική χρήση των cookies.