HACKING

Νότια Κορέα: Δημιουργεί εργαλείο ανίχνευσης deepfake βίντεο

This post was originally published on this site

Η αστυνομία της Νότιας Κορέας αναπτύσσει ένα νέο εργαλείο ανίχνευσης deepfake βίντεο και εικόνων, το οποίο θα είναι χρήσιμο κατά τη διάρκεια ποινικών ερευνών και αναμένεται να βοηθήσει στην αντιμετώπιση σχετικών απατών που θα μπορούσαν να στοχεύσουν τις εκλογές.

Σύμφωνα με ανακοίνωση της Εθνικής Αστυνομικής Υπηρεσίας της Κορέας (KNPA), το Εθνικό Γραφείο Ερευνών (NOI) θα αναπτύξει νέο λογισμικό που θα ανιχνεύει εάν τα βίντεο ή τα αρχεία εικόνας έχουν τροποποιηθεί χρησιμοποιώντας τεχνικές deepfake.

Σε αντίθεση με τα περισσότερα υπάρχοντα εργαλεία που εκπαιδεύονται σε δεδομένα που βασίζονται στη Δύση, το μοντέλο πίσω από το νέο λογισμικό της Νότιας Κορέας εκπαιδεύτηκε σε 5,2 εκατομμύρια κομμάτια δεδομένων από 5400 Κορεάτες. Υιοθετεί “το νεότερο μοντέλο τεχνητής νοημοσύνης για να ανταποκριθεί σε νέους τύπους βίντεο απάτης, για τους οποίους δεν ήταν προεκπαιδευμένα“, δήλωσε η KNPA.

Δείτε επίσης: Ηνωμένο Βασίλειο: Τα deepfakes θα θέσουν σε κίνδυνο τις εκλογές

Το λογισμικό θα μπορεί να εντοπίσει αν έχουν χρησιμοποιηθεί τεχνολογία AI και deepfake τεχνικές σε ένα βίντεο, σε πέντε έως 10 λεπτά.

Η αστυνομία της Νότιας Κορέας είπε ότι το εργαλείο έχει 80% πιθανότητα να εντοπίσει αν ένα βίντεο είναι αυθεντικό.

Το εργαλείο ανίχνευσης deepfake θα ενσωματωθεί άμεσα στις ερευνητικές διαδικασίες, ωστόσο αυτά δεδομένα θα χρησιμοποιούνται για να κατευθύνουν την έρευνα και όχι ως άμεσο αποδεικτικό στοιχείο.

Πάντως, η αντιμετώπιση της κακόβουλης χρήσης της τεχνολογία Deepfake είναι απαραίτητη. Η δυνατότητα δημιουργίας πειστικών ψεύτικων βίντεο μπορεί να οδηγήσει σε εκτεταμένη διάδοση πληροφοριών που δεν είναι αληθινές.

Δείτε επίσης: Το Gold Pickaxe trojan κλέβει το πρόσωπό σας για απάτες με deepfakes

Επιπλέον, η τεχνολογία Deepfake μπορεί να χρησιμοποιηθεί για τη δημιουργία εικόνων ή βίντεο που μπορούν να προκαλέσουν σοβαρή ζημιά στην υπόληψη και την εικόνα κάποιου ατόμου. Αυτό μπορεί να έχει σοβαρές συνέπειες, ειδικά σε περιπτώσεις που το περιεχόμενο χρησιμοποιείται για τον εκβιασμό ή εκφοβισμό κάποιου.

Τα ψεύτικα βίντεο μπορούν να χρησιμοποιηθούν για την παραποίηση της πραγματικότητας, οδηγώντας σε σοβαρές πολιτικές και κοινωνικές συνέπειες, καθώς οι άνθρωποι μπορεί να μην είναι σε θέση να ξεχωρίσουν την πραγματικότητα από το ψέμα.

Νότια Κορέα: Ένα εργαλείο ανίχνευσης Deepfake ενόψει των εκλογών

Οι βουλευτικές εκλογές στη Νότια Κορέα είναι προ των πυλών, αφού έχουν προγραμματιστεί για τις 10 Απριλίου.

Ήδη έχουν γίνει πολλές προσπάθειες εξάπλωσης παραπληροφόρησης και προπαγάνδας, με τη βοήθεια εργαλείων τεχνητής νοημοσύνης.

Δείτε επίσης: Deepfake scam: Πώς μια ψεύτικη τηλεδιάσκεψη οδήγησε στην κλοπή $25 εκατ.

Τον Φεβρουάριο, η Εθνική Εκλογική Επιτροπή (NEC) της Νότιας Κορέας ανέφερε ότι εντοπίστηκαν 129 περιπτώσεις περιεχομένου που δημιουργήθηκε από τεχνητή νοημοσύνη (ψεύτικο βίντεο και ήχος) που παραβίαζε έναν πρόσφατα αναθεωρημένο εκλογικό νόμο. Το deepfake περιεχόμενο διαδόθηκε κυρίως σε πλατφόρμες κοινωνικής δικτύωσης και παραποιούσε ομιλίες ορισμένων υποψηφίων για να επηρεάσει το κοινό.

Πηγή: www.infosecurity-magazine.com

https://www.secnews.gr/security/

%d bloggers like this: