Z velikim napredkom prevzema veliko odgovornost

Avtor: Roger Morrison
Datum Ustvarjanja: 27 September 2021
Datum Posodobitve: 1 Julij. 2024
Anonim
Prva seja Strateškega sveta za digitalizacijo #DigitalnaSlovenija
Video.: Prva seja Strateškega sveta za digitalizacijo #DigitalnaSlovenija

Vsebina


Vir: Mike2focus / Dreamstime.com

Odvzem:

Poraba medijev se razvija skupaj s tehnološkim napredkom, kot je umetna inteligenca (AI). Čeprav na splošno sprejemamo napredek, se moramo zavedati tudi pomanjkljivosti nekaterih oblik tehnologije. AI-jeva zmožnost je temna plat, ko se uporablja za promocijo lažnih novic.

Temna plat tehnologije je bila med temami, ki so jih raziskovali na drugi konferenci Machines + Media na laboratoriju NYC Media Lab, ki jo je 15. maja sponzoriral in gostil Bloomberg na svojem globalnem sedežu v ​​mestu, čeprav se je na nekaterih sejah bolj ukvarjalo z iskanjem tehnologije je trenutno na voljo medijem, tudi tistim, ki so sestavili senco manipulacij in dezinformacij.

Dobra zgodba je bolj privlačna kot celotna resnica

Na seji z naslovom "The Art of the Art" je Gilad Lotan, VP, vodja znanosti o podatkih, Buzzfeed, opozoril, da problema lažnih ali zavajajočih novic ne moremo kriviti samo medijskim podjetjem ali novi tehnologiji. "Ljudje ne iščejo nujno dejstev," je dejal. "Bralci želijo zgodbe."


Dodal je, da lahko hranjenje te želje po zgodbah in favoriziranih pripovedih povzroči lažne novice, ki so "bolj manipulacija kot lažne informacije." V resnici podana zgodba morda sploh ne vključuje ničesar lažnega. Pri tem je ponarejeno, da so poročana dejstva nabrana češnja in odstranjena iz večjega "con", da bi "bralci pripeljali do zaključka."

V istem okviru je Kelly Born iz fundacije William in Flora Hewlett iz naslova demokratične pobude Fundacije Us and Flora Hewlett dejala: "Ljudje imajo radi novice, ki krepijo njihova prepričanja, še posebej, če sprožijo ogorčenje." Opozorila je, da je kapitalizacija medijev na podlagi te težnje lahko pripelje do "popolne nevihte", ki v nas povzroči najhujše. To poslabša možnost popolnoma izdelanih predstavitev.

Ali Gledanje še vedno verjame?

Tehnologija igra vlogo pri pripovedovanju zgodbe s pomočjo slik in videoposnetkov. Običajno verjamemo temu, kar vidimo, razen če ni očitnih znakov manipulacije. Ker pa AI izboljšuje realizem ponarejenih videov, je zdaj mogoče dobesedno vstaviti besede v usta javnih osebnosti. (AI se ne uporablja samo za grozne namene. Oglejte si nekaj konstruktivnih v 5 načinih, ki jih podjetja morda želijo razmisliti o uporabi AI.)


Nevarnost AI-jevega ustvarjanja zelo prepričljivih videoposnetkov je bila prikazana na seji z naslovom "Rešitve za temne strani medijev, ki jih poganjajo stroji." Začelo se je z videoposnetkom, v katerem je Barack Obama povedal stvari, ki jih bivši predsednik še nikoli ni rekel. Gibanje je bilo z besedami še vedno nekoliko sinhronizirano, zato ima nekaj znamk ponarejenega videoposnetka, večina publike pa je dejala, da bi ga lahko prepoznali kot ponaredek.

Da Obamova video manipulacija ni dosegla realizma oživljanja Petra Cushinga kot Grand Moff Tarkin za "Rogue One". Kot je pojasnil članek New York Timesa, je bil učinek dosežen s tem, da je igralec nosil "materiale za zajem gibanja na glavi" medtem ko je pred kamero "tako, da bi njegov obraz lahko zamenjali z digitalno prenovo Cushingovega." Glavni kreativni direktor / višji nadzornik vizualnih učinkov filma je imenoval "super visokotehnološko in delovno intenzivno različico početja" pobotati se."

Neodločljive napake

Zdaj, zahvaljujoč se napredku AI, zlasti generaliziranim konkurenčnim mrežam (GAN), je lažje kot kdaj koli prej doseči filmske čarobne učinke. Z uporabo GANs en sistem AI predela posnetke, dokler ni dovolj dober, da ga sistem AI, zasnovan za odkrivanje ponaredkov, sprejme kot resničnega.

Brez napak, brez stresa - vaš korak za korakom vodnik za ustvarjanje programske opreme, ki spreminja življenje, ne da bi vam uničila življenje

Ne morete izboljšati svojih programskih veščin, kadar nikogar ne skrbi za kakovost programske opreme.

V tem videoposnetku si lahko ogledate raziskovalce, ki prikazujejo, kako lahko igralec usmerja gibe obraza osebe javne osebe, da ustvari kakršen koli izraz in izgovor s stopnjo zvestobe, ki je običajno ni mogoče najti v dokumentiranih videoposnetkih.

Čeprav trenutno nima vsakega, ki se igra z videoposnetki, tak sistem na voljo, bo programska oprema v bližnji prihodnosti dosegla več ljudi.

Možne posledice

Dhruv Ghulati, ustanovitelj in izvršni direktor, Factmata, pravi, da je "zelo zaskrbljen", kako bi to sposobnost lahko uporabili pri postavljanju obrazov ne samo svetovnih voditeljev, temveč tudi direktorje in slavne osebnosti v video posnetke kot dokaz svoje besede ali početja, česar nimajo . Destruktivne moči videoposnetka bi se povečale, če bi dosegli virusni učinek botnetov.

Pomeni, da "ne moremo več zaupati svojim lažljivim očem," je izjavil Mor Naaman, izredni profesor informatike, Cornell Tech. Bil je zaskrbljen, ker bi to lahko povzročilo izgubo zaupanja.

Drugi so zaskrbljeni zaradi razburivanja plamenov nasilja. Že "le nekoliko spremenjeni videoposnetki" se uporabljajo za povzročanje nasilja v državah v razvoju, "je opazil Aviv Ovadya, glavni tehnolog, Center za družbene medije. (Socialni mediji so lahko učinkovit način za širjenje lažnih informacij. Oglejte si 4 najbolj uničujoče vire za krmo.)

Sarah Hudson, partnerica, ki vlaga v ZDA, je izrazila zaskrbljenost, ker manipulirane slike "v merilu" predstavljajo "neverjetno grožnjo javni varnosti."

Proaktivno načrtovanje

Nujno je "preprečiti čim več te zlorabe," je dejal Ovadya. Zato je pomembno, da "razvijamo tehnologijo" vnaprej o "kako omiliti slabe učinke" in "nameniti sredstva za reševanje teh nenamernih posledic."

Ura ni mogoče vrniti nazaj, vendar moramo zagotoviti, da je smer, ki jo bomo ubrali, premišljena in načrtovana. To pomeni, da ne samo delate na tehnologiji, da bi videli, kaj je mogoče storiti, ampak razmišljati o tem, kaj bi bilo mogoče storiti, kar bi bilo treba preprečiti.

Nadaljnja pot tehnoloških inovacij je razmisliti, kakšni so lahko učinki, in načrtovati zaščitne ukrepe, preden se nevarnosti uresničijo. Za to bomo potrebovali sodelovanje med raziskovalci, tehnološkimi podjetji in vladnimi agencijami, da bomo vzpostavili standarde in najboljše prakse, ki se jih bodo ljudje držali. To bi morala biti prednostna naloga vseh.