Itxi iragarkia

Deepfake - argazkietan eta bideoetan jendearen aurpegiak beste inoren aurpegiekin ordezkatzea posible egiten duen teknologiak, azken urteotan, metraje errealaren eta datu faltsuen arteko aldea gero eta konplikatuagoa bihurtzen ari den forma bihurtu da. Eduki pornografikoa duten guneetan, esaterako, deepfakea aktore ospetsuen antzekin bideo zirraragarriak sortzeko erabiltzen da. Jakina, hori guztia erasotutako pertsonalitateen baimenik gabe gertatzen da, eta ikaskuntza automatikoa erabiltzen duen teknologiak gero eta sofistikazio handiagoari esker, beldurrak hedatzen ari dira bere gehiegikeria modu posibleei buruz. Deepfake batek erregistro digitalak erabat baztertu ditzakeen epaitegietan froga gisa benetakoa da eta justiziaren sektorearen gainean dago Damoklesen Ezpata bezala. Berri ona Truepic-etik dator orain, non zerrenden benetakotasuna egiaztatzeko modu erraz bat asmatu duten.

Bere sortzaileek Foresight deitzen zioten teknologia berriari, eta bideo-analisi osagarria egin eta deepfake den ala ez zehaztu beharrean, grabazio indibidualak sortu ziren hardwarearekin lotzea erabiltzen du benetakotasuna bermatzeko. Foresight-ek erregistro guztiak etiketatzen ditu metadatu enkriptatutako multzo berezi batekin sortzen diren heinean. Datuak formatu arruntetan gordetzen dira, orriaren aurrebistan Android Polizia enpresak frogatu zuen modu honetan bermatutako irudi bat JPEG formatuan gorde daitekeela. Beraz, ez dago datu-formatu bateraezinen beldurrik.

Baina teknologiak euli txikien ilara bat jasaten du. Handiena, ziurrenik, fitxategiek oraindik ez dituztela erregistratzen egindako aldaketak. Irtenbidea segurtasun metodo hau onartzen duten enpresa gehiago inplikatzea da. Teknologiaren arrakasta, batez ere, kamera eta gailu mugikorren fabrikatzaile handienen inplikazioak erabakiko du, Samsung eta buru. Applem. Beldur al zara norbaitek zure itxuraz abusatu dezakeen? Partekatu zure iritzia gurekin artikuluaren azpiko eztabaidan.

Gaurko irakurriena

.