Des de fa uns anys els deepfakes estan a totes les taules d'actualitat. Aquesta tècnica de la intel·ligència artificial que dona vida a imatges o vídeos falsos s'ha convertit en un debat per a la societat a causa que el seu resultat és cada vegada més real. L'esmentada pràctica ha causat una gran onada de delinqüents que utilitzen aquesta tecnologia per replicar l'aspecte, la veu i els moviments d'una persona amb l'objectiu d'estafar. De fet, segons l'informe Get identity fraud report 2023, els incidents globals de frau amb deepfakes es van multiplicar per deu entre 2022 i 2023. Per això, desemmascarar aquesta pràctica s'ha convertit en tot un repte en aquest 2024.

Consells pràctics

La tecnologia que persegueix aquesta pràctica és cada vegada major, com el desenvolupament d'eines avançades de detecció, així com també està augmentant l'educació de la ciutadania sobre aquest tipus de manipulacions i l'enfortiment de les lleis i regulacions contra els deepfakes. Tanmateix, alhora, les empreses i els individus han d'estar alerta i desenvolupar mètodes de verificació addicionals per confirmar l'autenticitat de la informació, especialment quan es tracta de decisions financeres o d'alt risc. Et donem alguns consells:

Utilitzar models entrenats amb dades KYC: una part significativa dels models de reconeixement facial utilitzats al mercat no estan entrenats amb dades de "Conegui el seu client" (KYC), que procedeixen directament de presentacions de clients del món real durant els processos de verificació d'identitat. La majoria dels proveïdors entrenen els seus algoritmes amb dades genèriques, com imatges d'arxiu fotos de famosos, dades públiques o dades de vigilància. Tanmateix, aquest material de partida no respon a les necessitats específiques de la verificació d'identitat i no pot oferir el nivell de precisió requerit.

Eines d'anàlisi forense digital: aquestes eines poden analitzar metadades i característiques dels arxius de mitjans per detectar manipulacions. Els canvis en les propietats de l'arxiu, com la seva firma digital, poden indicar alteracions sospitoses.

Regulacions i legislació: implementar lleis que penalitzin la creació i difusió de deepfakes malintencionats. La col·laboració internacional és crucial per crear un marc legal que permeti perseguir els creadors de deepfakes independentment de la seva ubicació geogràfica.

Aliances entre plataformes de xarxes socials i empreses tecnològiques: les plataformes com Facebook, Twitter, i YouTube poden desenvolupar i compartir tecnologies de detecció amb governs i altres organitzacions per eliminar ràpidament contingut fals. A més, aquestes plataformes poden marcar o eliminar contingut sospitós de ser un deepfake, alertant els usuaris.

En conclusió, aquesta nova pràctica de l'IA representa una amenaça en expansió, especialment quan cau en mans de ciberdelinqüents, i cada vegada se li ha de prestar una atenció més gran, mitjançant el desenvolupament d'eines de detecció més avançades i un compromís constant amb l'educació i l'ètica. La col·laboració entre governs, empreses i ciutadania apunta a ser la solució més important per reduir aquests perills i assegurar que aquesta nova tecnologia s'apliqui de manera positiva.