Έρευνα: Κίνδυνος κατάχρησης της τεχνητής νοημοσύνης από χάκερ

Έρευνα: Κίνδυνος κατάχρησης της τεχνητής νοημοσύνης από χάκερ

REUTERS/KACPER PEMPEL

Η ταχεία πρόοδος που σημειώνεται στον τομέα της τεχνητής νοημοσύνης εγκυμονεί τον κίνδυνο κακόβουλοι χρήστες να εκμεταλλευτούν την τεχνολογία αυτή για να πραγματοποιούν αυτοματοποιημένες επιθέσεις hacking, να προκαλούν ατυχήματα αυτόνομων οχημάτων, να μετατρέπουν drones διαθέσιμα στο εμπόριο σε όπλα, κ.α. σύμφωνα με νέα αναφορά που είδε το φως της δημοσιότητας.

Η μελέτη, που δημοσιεύτηκε την Τετάρτη από 25 ερευνητές (τόσο από τον τομέα της τεχνολογίας, όσο και από τον τομέα της πολιτικής) από τα πανεπιστήμια του Κέμπριτζ, της Οξφόρδης και του Γέιλ, καθώς και ειδικούς του χώρου των προσωπικών δεδομένων και των ενόπλων δυνάμεων, κρούει τον κώδωνα του κινδύνου όσον αφορά στην κακή χρήση της Α.Ι. από «χώρες- παρίες», εγκληματίες και «μοναχικούς λύκους».

Όπως αναφέρει το Reuters, οι ερευνητές σημειώνουν πως οι κακόβουλη χρήση της τεχνητής νοημοσύνης συνιστά μεγάλη απειλή στην ψηφιακή, την πολιτική και την φυσική ασφάλεια, επιτρέποντας μεγάλης κλίμακας στοχευμένες και ιδιαίτερα αποτελεσματικές επιθέσεις. Σημειώνεται πως η μελέτη επικεντρώνεται σε πιθανές εξελίξεις εντός διαστήματος μόλις πέντε ετών.

«Συμφωνούμε όλοι πως υπάρχουν πολλές θετικές εφαρμογές για την τεχνητή νοημοσύνη», λέει ο Μάιλς Μπρούντατζ, ερευνητής του Future of Humanity Institute του University of Oxford, επισημαίνοντας ωστόσο πως «υπάρχει ένα κενό στη βιβλιογραφία ως προς το θέμα της κακόβουλης χρήσης».

Πέρα από τους προβληματισμούς που προκύπτουν από την άνοδο της Α.Ι., όπως τις επιπτώσεις της αυξανόμενης αυτοματοποίησης στην ανθρώπινη απασχόληση, στην 98 σελίδων μελέτη αναφέρεται πως το κόστος των κυβερνοεπιθέσεων μπορεί να μειωθεί μέσω της χρήσης τεχνητής νοημοσύνης για την πραγματοποίηση εργασιών που υπό άλλες συνθήκες θα απαιτούσαν ανθρώπινη εργασία και εξειδίκευση. Ακόμη, θα μπορούσαν να προκύψουν επιθέσεις που θα ήταν μη πρακτικό να αναπτυχθούν από ανθρώπους, ή οι οποίες θα εκμεταλλεύονται τα τρωτά σημεία των ίδιων των συστημάτων τεχνητής νοημοσύνης.

Οι ερευνητές δίνουν έμφαση στη δύναμη της Α.Ι να παράγει συνθετικές εικόνες, κείμενο και audio, για να πραγματοποιεί πλαστοπροσωπία online προκειμένου να επηρεάσει την κοινή γνώμη, επισημαίνοντας τον κίνδυνο που θα αποτελούσε μια τέτοια τεχνολογία στα χέρια απολυταρχικών καθεστώτων. Επίσης προβαίνουν σε μια σειρά συστάσεων, περιλαμβανομένης της επιβολής ρυθμιστικών κανόνων στην Α.Ι ως τεχνολογίας διπλής χρήσης (πολιτικής- στρατιωτικής). Επίσης, τίθενται ερωτήματα σχετικά με το αν οι ακαδημαϊκοί και οι άλλοι ερευνητές θα έπρεπε να περιορίζουν αυτά που δημοσιοποιούν ή αποκαλύπτουν σχετικά με τις εξελίξεις στην Α.Ι μέχρι άλλοι ειδικοί του χώρου να μπορέσουν να κάνουν τις ανάλογες μελέτες σχετικά με τους πιθανούς κινδύνους που μπορεί να προκύπτουν.

«Εν τέλει καταλήξαμε με περισσότερα ερωτήματα από απαντήσεις» λέει ο Μπρούντατζ. Σημειώνεται πως το σχετικό paper δημιουργήθηκε από ένα workshop στις αρχές του 2017, και κάποιες από τις προβλέψεις που περιέχει έχουν ήδη αποδειχθεί επιτυχείς.


Πηγή άρθρου – naftemporiki.gr

Use Facebook to Comment on this Post

Related posts

Leave a Reply

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *