Η σκοτεινή πλευρά των δημιουργών εικόνων AI ανοιχτού κώδικα

ArtFck
Από -

Είτε μέσω του συνοφρυωμένου προσώπου υψηλής ευκρίνειας ενός χιμπατζή είτε ενός ψυχεδελικού, ροζ και κόκκινων αποχρώσεων του εαυτού του, ο Reuven Cohen χρησιμοποιεί εικόνες που δημιουργούνται από την τεχνητή νοημοσύνη για να τραβήξει την προσοχή των ανθρώπων. «Πάντα με ενδιέφερε η τέχνη, το σχέδιο και το βίντεο και απολαμβάνω να ξεπερνάω τα όρια», λέει — αλλά ο σύμβουλος με έδρα το Τορόντο, ο οποίος βοηθά τις εταιρείες να αναπτύξουν εργαλεία τεχνητής νοημοσύνης, ελπίζει επίσης να αυξήσει την ευαισθητοποίηση για τις πιο σκοτεινές χρήσεις της τεχνολογίας.

«Μπορεί επίσης να εκπαιδευτεί ειδικά ώστε να είναι αρκετά φρικιαστικό και κακό με πολλούς τρόπους», λέει ο Cohen. Είναι λάτρης του πειραματισμού του ελεύθερου τροχού που έχει εξαπολυθεί από την τεχνολογία δημιουργίας εικόνων ανοιχτού κώδικα. Αλλά αυτή η ίδια ελευθερία επιτρέπει τη δημιουργία ξεκάθαρων εικόνων γυναικών που χρησιμοποιούνται για παρενόχληση.

Μετά από μη συναινετικές εικόνες της Taylor Swift που διαδόθηκαν πρόσφατα στο X, η Microsoft πρόσθεσε νέα στοιχεία ελέγχου στη γεννήτρια εικόνων της. Τα μοντέλα ανοιχτού κώδικα μπορούν να ελέγχονται από σχεδόν οποιονδήποτε και γενικά διατίθενται χωρίς προστατευτικά κιγκλιδώματα. Παρά τις προσπάθειες ορισμένων ελπιδοφόρων μελών της κοινότητας να αποτρέψουν τις εκμεταλλευτικές χρήσεις, ο έλεγχος του ανοιχτού κώδικα δωρεάν για όλους είναι σχεδόν αδύνατος, λένε οι ειδικοί.

«Ο ανοιχτός κώδικας έχει ενεργοποιήσει την κατάχρηση ψεύτικων εικόνων και τη μη συναινετική πορνογραφία. Αυτό είναι αδύνατο να επικαλυφθεί ή να πληροί τις προϋποθέσεις», λέει ο Henry Ajder , ο οποίος έχει περάσει χρόνια ερευνώντας την επιβλαβή χρήση της γενετικής τεχνητής νοημοσύνης.

Ο Ajder λέει ότι την ίδια στιγμή που γίνεται το αγαπημένο των ερευνητών, των δημιουργικών όπως ο Cohen και των ακαδημαϊκών που εργάζονται στην τεχνητή νοημοσύνη, το λογισμικό δημιουργίας εικόνων ανοιχτού κώδικα έχει γίνει το θεμέλιο του deepfake πορνό. Ορισμένα εργαλεία που βασίζονται σε αλγόριθμους ανοιχτού κώδικα είναι ειδικά κατασκευασμένα για  παρενοχλητικές χρήσεις, όπως εφαρμογές «γυμνοποίησης» που αφαιρούν ψηφιακά γυναικεία ρούχα στις εικόνες.

Αλλά πολλά εργαλεία μπορούν να εξυπηρετήσουν τόσο νόμιμες όσο και ενοχλητικές περιπτώσεις χρήσης. Ένα δημοφιλές πρόγραμμα ανταλλαγής προσώπων ανοιχτού κώδικα χρησιμοποιείται από ανθρώπους της βιομηχανίας του θεάματος και ως «εργαλείο επιλογής για κακούς ηθοποιούς» κάνοντας μη συναινετικά deepfakes, λέει ο Ajder. Η συσκευή δημιουργίας εικόνας υψηλής ανάλυσης Stable Diffusion, που αναπτύχθηκε από την startup Stability AI, φέρεται να έχει περισσότερους από 10 εκατομμύρια χρήστες και έχει εγκατεστημένα προστατευτικά κιγκλιδώματα για την αποτροπή δημιουργίας εικόνων και πολιτικών που απαγορεύουν την κακόβουλη χρήση. Ωστόσο, η εταιρεία προμήθευσε επίσης μια έκδοση της συσκευής δημιουργίας εικόνων ανοιχτού κώδικα το 2022 που είναι προσαρμόσιμη και οι διαδικτυακοί οδηγοί εξηγούν πώς να παρακάμψετε τους ενσωματωμένους περιορισμούς της.

Εν τω μεταξύ, τα μικρότερα μοντέλα τεχνητής νοημοσύνης γνωστά ως LoRA διευκολύνουν τον συντονισμό ενός μοντέλου Stable Diffusion για την έξοδο εικόνων με συγκεκριμένο στυλ, ιδέα ή πόζα—όπως η ομοιότητα μιας διασημότητας ή ορισμένες σεξουαλικές πράξεις. Είναι ευρέως διαθέσιμα σε αγορές μοντέλων τεχνητής νοημοσύνης όπως το Civitai, ένας ιστότοπος που βασίζεται στην κοινότητα όπου οι χρήστες μοιράζονται και κατεβάζουν μοντέλα. Εκεί, ένας δημιουργός μιας προσθήκης Taylor Swift προέτρεψε τους άλλους να μην τη χρησιμοποιούν «για εικόνες NSFW». Ωστόσο, μετά τη λήψη του, η χρήση του είναι εκτός ελέγχου του δημιουργού του. «Ο τρόπος με τον οποίο λειτουργεί ο ανοιχτός κώδικας σημαίνει ότι θα είναι πολύ δύσκολο να σταματήσει κάποιος από το να το κλέψει», λέει ο Ajder.

Το 4chan, ο ιστότοπος πινάκων μηνυμάτων που βασίζεται σε εικόνες, με τη φήμη της χαοτικής μετριοπάθειας , φιλοξενεί σελίδες αφιερωμένες σε μη συναινετικά ψεύτικα πορνό, κατασκευασμένο με ανοιχτά διαθέσιμα προγράμματα και μοντέλα τεχνητής νοημοσύνης που είναι αφιερωμένα αποκλειστικά σε σεξουαλικές εικόνες. Οι πίνακες μηνυμάτων για εικόνες ενηλίκων είναι γεμάτες με μη συναινετικά γυμνά πραγματικών γυναικών που δημιουργούνται από την τεχνητή νοημοσύνη, από πορνό ερμηνευτές έως ηθοποιούς όπως η Κέιτ Μπλάνσετ.

Αυτό το είδος δραστηριότητας έχει εμπνεύσει ορισμένους χρήστες σε κοινότητες που είναι αφιερωμένες στη δημιουργία εικόνων με τεχνητή νοημοσύνη, συμπεριλαμβανομένου του Reddit και του Discord, να προσπαθήσουν να απωθήσουν τη θάλασσα των πορνογραφικών και κακόβουλων εικόνων. Οι δημιουργοί εκφράζουν επίσης την ανησυχία τους για το ότι το λογισμικό αποκτά φήμη για τις εικόνες NSFW, ενθαρρύνοντας άλλους να αναφέρουν εικόνες που απεικονίζουν ανηλίκους στο Reddit και σε ιστότοπους που φιλοξενούν μοντέλα. Οι πολιτικές του Reddit απαγορεύουν όλα τα «μη συναινετικά οικεία μέσα» που δημιουργούνται από AI.

Άλλοι δημιουργοί τεχνητής νοημοσύνης, συμπεριλαμβανομένου του Cohen, ανησυχούν επίσης για την ευκολία δημιουργίας deepfakes με μια νέα μέθοδο, το InstantID, που δημοσιεύτηκε τον Ιανουάριο από ερευνητές στο Πανεπιστήμιο του Πεκίνου και την κινεζική εταιρεία κοινωνικών μέσων Xiaohongshu, η οποία μπορεί να χρησιμοποιηθεί για την εναλλαγή προσώπων σε εικόνες χρησιμοποιώντας απλώς ένα μεμονωμένο παράδειγμα, επομένως χρειάζεται λιγότερη επεξεργασία ή προετοιμασία. Η ομάδα εξέφρασε την ανησυχία της για τη δυνατότητα της δημιουργίας τους να δημιουργήσει «προσβλητικές ή πολιτιστικά ακατάλληλες εικόνες».

«Αν ήθελες να δημιουργήσεις ένα deepfake σε συμβιβαστική θέση», λέει ο Cohen, «αυτό το κάνει απλό και εύκολο. Αυτό θα μπορούσε [τελικά] να συνδεθεί σε ένα πρόγραμμα περιήγησης και τώρα μπορείτε να το έχετε με μηδενικό κόστος, γεγονός που το έκανε προσβάσιμο σε όλους».

Ορισμένα εργαλεία και δημιουργοί λογισμικού αποθαρρύνουν οι ίδιοι την κακόβουλη χρήση. Όταν ο David Widder, ερευνητής ηθικής τεχνητής νοημοσύνης και μεταδιδακτορικός συνεργάτης στo Cornell Tech, πήρε συνέντευξη από τους ανθρώπους πίσω από ένα εργαλείο deepfake ανοιχτού κώδικα, κατέστησαν σαφές ότι δεν ήθελαν το λογισμικό τους να χρησιμοποιείται για πορνό οποιουδήποτε είδους, συναινετικό ή μη συναινετικό. Ωστόσο, ένιωθαν αδύναμοι να κάνουν τους ανθρώπους να σεβαστούν αυτή την επιθυμία. «Δεν αισθάνονται ότι μπορούν να κάνουν οτιδήποτε για να το σταματήσουν», λέει ο Widder.

Άλλοι δημιουργοί τεχνητής νοημοσύνης ανοιχτού κώδικα δημιουργούν εμπόδια σε περιπτώσεις ανεπιθύμητης χρήσης. Οι ερευνητές στο Hugging Face, μια διαδικτυακή κοινότητα και πλατφόρμα για μοντέλα ανοιχτού κώδικα, έχουν προωθήσει ηθικά εργαλεία για την τεχνητή νοημοσύνη, συμπεριλαμβανομένης της «φύλαξης» εικόνας, η οποία λένε ότι προστατεύει τις εικόνες από τη γενετική επεξεργασία τεχνητής νοημοσύνης, καθώς και επιτρέπει στους προγραμματιστές να ελέγχουν την πρόσβαση στα μεταφορτωμένα μοντέλα στην πλατφόρμα. Η Civitai λέει ότι απαγορεύει τις απεικονίσεις πραγματικών ανθρώπων, καθώς και ανηλίκων, σε ένα «ώριμο πλαίσιο» και τον Δεκέμβριο ενθάρρυνε την αναφορά παραβιάσεων. Ωστόσο, οι χρήστες ζητούν ανοιχτά από άλλους στον ιστότοπο να δημιουργήσουν μη συναινετικές εικόνες, κυρίως γυναικών, ανέφεραν το 404 Media τον Νοέμβριο.

Ένας εκπρόσωπος της Civitai έδωσε μια δήλωση της εταιρείας λέγοντας ότι οι εικόνες που έχουν επισημανθεί πληρούν δυνητικά τον ορισμό του ιστότοπου για περιεχόμενο για ενηλίκους από το σύστημα εποπτείας του αποστέλλονται για ανθρώπινη εξέταση. Οι παραβιάσεις των πολιτικών της εταιρείας θα έχουν ως αποτέλεσμα την αφαίρεση εικόνων, την αναστολή της πρόσβασης στην επιτόπια δημιουργία εικόνων της Civitai ή την απαγόρευση από την πλατφόρμα, ανέφερε. Πραγματικά άτομα που εμφανίζονται στα μοντέλα μπορούν επίσης να στείλουν αίτημα κατάργησης στη Civitai .

«Τεχνικές επιδιορθώσεις», όπως η απελευθέρωση και η αδειοδότηση ανοιχτού κώδικα, και οι συμβατικές υποχρεώσεις για εμπορικές πλατφόρμες, ενδέχεται να μην σταματήσουν κάθε κακή χρήση, αλλά θα μπορούσαν να σταματήσουν ορισμένες, λέει ο Widder. Και ακόμη κι αν μεμονωμένα μέλη της κοινότητας μπορεί να αισθάνονται ότι δεν μπορούν να κάνουν τη διαφορά, οι προσπάθειες της βάσης θα μπορούσαν επίσης να είναι μια αποτελεσματική πηγή αλλαγής. «Ο καθορισμός κανόνων σε μια κοινότητα είναι ένας υποτιμημένος και συχνά ισχυρός τρόπος επηρεασμού της συμπεριφοράς και αυτού που θεωρείται αποδεκτό», λέει ο Widder.

Η κοινή χρήση προσωπικών εικόνων που δημιουργήθηκαν από την τεχνητή νοημοσύνη χωρίς συναίνεση κατέστη παράνομη στο Ηνωμένο Βασίλειο με τη νομοθεσία για την ασφάλεια στο διαδίκτυο που θεσπίστηκε τον Ιανουάριο και το σκάνδαλο Swift έχει προσθέσει νέο υλικό στις εκκλήσεις για παρόμοιους, ομοσπονδιακούς νόμους στις ΗΠΑ. Τουλάχιστον 10 πολιτείες έχουν νόμους που σχετίζονται με το deepfake. Οι εταιρείες τεχνολογίας και οι κοινωνικές πλατφόρμες διερευνούν επίσης την «υδατογράφηση» της τεχνητής νοημοσύνης από εξέχοντα εργαλεία, ενώ οι εταιρείες τεχνολογίας υπέγραψαν συμφωνία για την καταστολή της τεχνητής νοημοσύνης κατά τη διάρκεια των εκλογών — αν και δεν είναι σαφές πώς αυτό θα επηρεάσει τις γενιές που κατασκευάζονται με εξειδικευμένα μοντέλα.

Η Elena Michael, διευθύντρια του NotYourPorn, μιας βρετανικής ομάδας που διεξάγει εκστρατεία κατά της σεξουαλικής κακοποίησης, προτείνει περισσότερο διάλογο μεταξύ νεοφυών επιχειρήσεων τεχνητής νοημοσύνης, προγραμματιστών ανοιχτού κώδικα και επιχειρηματιών καθώς και κυβερνήσεων, γυναικείων οργανώσεων, ακαδημαϊκών και της κοινωνίας των πολιτών για να διερευνηθούν πιθανοί αποτρεπτικοί παράγοντες για τη μη συναινετική porn AI που δεν εμποδίζει την προσβασιμότητα σε μοντέλα ανοιχτού κώδικα. «Δεν υπάρχει αρκετή συζήτηση και δεν υπάρχει αρκετή συνεργασία μεταξύ των θεσμών που προσπαθούν να αντιμετωπίσουν αυτό το ζήτημα», λέει.

Μπορεί να μην υπάρχει τρόπος να ελεγχθεί πλήρως το πρόβλημα, αλλά ο σωστός συντονισμός μεταξύ αυτών των ομάδων θα μπορούσε να βοηθήσει στην αποτροπή της κακοποίησης και να κάνει τους ανθρώπους πιο υπεύθυνους, λέει. "Πρόκειται για τη δημιουργία μιας κοινότητας στο διαδίκτυο."

Τελικά, η μορφή κακοποίησης που βασίζεται στην εικόνα προκαλεί συχνά καταστροφικές συνέπειες για όσους επηρεάζονται, οι οποίοι είναι σχεδόν πάντα γυναίκες. Μια μελέτη του 2019 από το deepfake monitor Sensity AI διαπίστωσε ότι το 96 τοις εκατό των deepfake είναι μη συναινετική πορνογραφία, που στοχεύει σχεδόν αποκλειστικά γυναίκες.

Ο Cohen, ο σύμβουλος του Τορόντο, λέει ότι φοβάται το περιβάλλον που δημιουργεί για τις νεαρές γυναίκες. «Τα πραγματικά τρομερά πράγματα δεν συμβαίνουν στο επίπεδο της Taylor Swift. Η ικανότητα των τυχαίων ανθρώπων να στοχεύουν πραγματικά άτομα είναι τρομακτική», λέει. «Είμαι γενικά αισιόδοξος, αλλά έχω επίσης μια κόρη και θέλω να μεγαλώσει σε έναν κόσμο που είναι ασφαλής για όλους τους άλλους».

*Ακολουθήστε μας στο Google News, Facebook, instagram, twitter.
*Υποστηρίξτε μας μέσω του Patreon η του PayPal.​