Δημιουργία «κακόβουλης» τεχνητής νοημοσύνης-συγγραφέα
Δείτε ακόμα
- Ο ρόλος του ψηφιακού μετασχηματισμού στη λιανική 14/02 13:51
- Airbus: Παύει η παραγωγή του A380 «superjumbo», του μεγαλύτερου επιβατηγού αεροπλάνου στον κόσμο 14/02 10:07
Ομάδα ερευνητών που δημιούργησε μια τεχνητή νοημοσύνη-συγγραφέα λέει πως δεν θα διαθέσει ευρέως τη συγκεκριμένη τεχνολογία επειδή μπορεί να χρησιμοποιηθεί «κακόβουλα».
Η OpenAI, που εδρεύει στο Σαν Φρανσίσκο, είναι ένα ερευνητικό ινστιτούτο με τη στήριξη μεγάλων προσωπικοτήτων της Σίλικον Βάλεϊ, μεταξύ των οποίων ο Έλον Μασκ και ο Πίτερ Θιλ. Στο πλαίσιο των δραστηριοτήτων της, μοιράστηκε μέρος του υλικού από νέα έρευνα πάνω στη χρήση machine learning για τη δημιουργία ενός συστήματος ικανού να παράγει «φυσική» γλώσσα, εκφράζοντας όμως παράλληλα προβληματισμούς πως το εργαλείο αυτό θα μπορούσε να χρησιμοποιηθεί για τη μαζική παραγωγή «πειστικών» fake news.
Όπως αναφέρει το BBC, η OpenAI είπε πως το σύστημά της είναι σε θέση να παράγει άρθρα με συνοχή, πάνω σε οποιοδήποτε θέμα, απαιτώντας μόνο μια σύντομη οδηγία. Η τεχνητή νοημοσύνη είναι «μη επιβλεπόμενη» (unsupervised), κάτι που σημαίνει πως δεν χρειάζεται «επανεκπαίδευση» για να μιλήσει για ένα διαφορετικό θέμα. Παράγει κείμενο χρησιμοποιώντας δεδομένα από περίπου οκτώ εκατομμύρια ιστοσελίδες. Για να «τροφοδοτήσει» το σύστημα, η ομάδα δημιούργησε μια νέα, αυτοματοποιημένη μέθοδο εντοπισμού «ποιοτικού» περιεχομένου στο Ίντερνετ.
Αντί να βρίσκει αδιακρίτως δεδομένα από το web, το σύστημα κοιτούσε μόνο σελίδες που ανέβαζαν χρήστες στο Reddit. Τα δεδομένα τους περιελάμβαναν μόνο links που είχαν «karma score» 3 και άνω- δηλαδή τρεις άνθρωποι είχαν κρίνει πως το περιεχόμενό τους είχε κάποια αξία, οποιαδήποτε και αν ήταν αυτή.
Η τεχνητή νοημοσύνη παράγει το κείμενο λέξη-λέξη. Το κείμενο που προκύπτει συχνά έχει συνοχή, αλλά σπάνια λέει αλήθεια- όλες οι παραπομπές και οι αναφορές που περιλαμβάνει είναι φτιαχτές. Οι προτάσεις βασίζονται σε πληροφορίες που ήδη έχουν δημοσιευτεί online, αλλά ο τρόπος σύνθεσής τους είναι νέος.
Κάποιες φορές το σύστημα παράγει κείμενα που δεν βγάζουν νόημα δομικά- ή περιλαμβάνουν ακόμα και αστείες ανακρίβειες: Σε μια επίδειξη που έγινε στο BBC, η τεχνητή νοημοσύνη έγραψε πως μια διαδήλωση οργανώθηκε από έναν άνδρα ονόματι «Paddy Power»- το όνομα μιας γνωστής αλυσίδας στοιχηματισμού στη Μ. Βρετανία. Επίσης, έχουν βρεθεί και άλλα λάθη, όπως επαναλαμβανόμενο κείμενο, αφύσικες αλλαγές θέματος κ.α.
Αξίζει να σημειωθεί πως το BBC αναφέρει ότι το OpenAI δεν έχει την καλύτερη φήμη στον χώρο της τεχνητής νοημοσύνης, καθώς πολλοί θεωρούν πως έχει πολλά χρήματα, τα οποία χρησιμοποιούνται σε σκοπούς άνευ πραγματικής ουσίας, ενώ άλλοι θεωρούν πως οι προσπάθειες που καταβάλλει στον «στίβο» της δημοσιότητας βλάπτουν την εικόνα των ακαδημαϊκών- ωστόσο, επί της προκειμένης κάποιοι εξέλαβαν θετικά το ότι ερευνητές πάνω στην τεχνητή νοημοσύνη εξετάζουν τις επιπτώσεις της χρήσης της τεχνολογίας τους.
Η ίδια η OpenAI ανέφερε ότι επιθυμεί η τεχνολογία της να πυροδοτήσει συζήτηση ως προς το πώς τέτοιου είδους τεχνητές νοημοσύνες θα έπρεπε να χρησιμοποιούνται και να ελέγχονται.
Προτεινόμενα για εσάς
ΠΕΡΙΣΣΟΤΕΡΑ ΘΕΜΑΤΑΠηγή άρθρου – naftemporiki.gr