L'impact des IA génératives sur la vérité et la confiance Tutoriels

L'intelligence artificielle, notamment les IA génératives, redéfinit notre perception de la réalité. Notre vidéo détaille la puissance des technologies comme DeepMind, GPT-4 et Midjourney, véritables acteurs de la transformation digitale, qui brouillent les frontières entre réalité et fiction, générant ainsi des deepfakes hautement sophistiqués. Ces contrefaçons numériques, presque parfaites, nous poussent à nous interroger : "Comment distinguer le vrai du faux ?".

L'incident Tesla en 2018 illustre le danger des informations trompeuses dans le monde digital. Dans l'ère du numérique, entreprises et marques peuvent voir leur réputation basculer à la suite d’une simple déclaration. Mais c'est aussi la démocratie et la cohésion sociale qui sont menacées par cette désinformation générée par IA.

Heureusement, la technologie offre aussi des solutions. Découvrez dans notre vidéo les initiatives innovantes pour combattre la désinformation. Dans cette jungle digitale, trouver la vérité nécessite plus que jamais discernement et vigilance.

  • 3:52
  • 685 vues
00:00:04
L'intelligence artificielle façonne
00:00:06
notre monde d'une manière que
00:00:08
nous n'aurions jamais imaginée.
00:00:10
Les IA génératives ont
00:00:12
transcendé nos attentes.
00:00:14
Elles peuvent aujourd'hui
00:00:15
composer des mélodies similaires
00:00:16
à celles de grands musiciens,
00:00:18
écrire des articles dans le
00:00:20
style de journalistes renommés,
00:00:21
reproduire des voix évoquant nos
00:00:23
acteurs et chanteurs favoris et
00:00:25
générer des visages et vidéos si
00:00:27
réalistes qu'on les croirait
00:00:28
extraits d'un film hollywoodien.
00:00:32
Ce qui était jadis relégué aux
00:00:33
pages des romans de science-fiction
00:00:35
prend désormais vie sous nos yeux
00:00:37
grâce à des applications comme DeepMind,
00:00:40
GPT-4 ou Midjourney...
00:00:42
Les deepfakes sont parmi les applications
00:00:45
les plus controversées de cette technologie.
00:00:48
Imaginez une vidéo d'une personnalité
00:00:51
influente faisant une déclaration explosive.
00:00:54
Sauf que cette déclaration n'a jamais
00:00:56
été faite. Dans un monde où nous
00:00:58
comptons sur ce que nous voyons et entendons,
00:01:01
les implications peuvent être dévastatrices.
00:01:04
Les entreprises sont
00:01:06
particulièrement vulnérables.
00:01:07
Une simple vidéo truquée peut déclencher
00:01:10
une crise financière, ruiner des années
00:01:13
de branding ou semer le chaos parmi
00:01:15
les actionnaires et les clients.
00:01:17
Mais ce n'est pas seulement
00:01:19
une question d'argent.
00:01:20
La confiance,
00:01:20
une fois perdue,
00:01:21
est difficile à restaurer. Dans un
00:01:25
monde corporatif interconnecté,
00:01:26
la désinformation peut rapidement
00:01:28
devenir virale,
00:01:29
affectant non seulement une entreprise,
00:01:31
mais une industrie entière.
00:01:33
Un des exemples les plus marquants
00:01:35
qui peut illustrer la vulnérabilité
00:01:37
des entreprises face à la
00:01:39
désinformation est celui de Tesla
00:01:42
en 2018.
00:01:43
En août 2018, Elon Musk,
00:01:46
le PDG de Tesla,
00:01:48
a tweeté qu'il envisageait de
00:01:50
retirer Tesla de la bourse
00:01:51
et qu'il avait "le financement assuré".
00:01:54
Cette déclaration a entraîné une flambée du
00:01:57
cours des actions de Tesla de plus de 10%.
00:01:59
Cependant,
00:02:00
il s'est avéré plus tard que Musk
00:02:02
n'avait pas de plan concret ni de
00:02:04
financement assuré pour une telle opération.
00:02:06
La SEC (Securities and Exchange
00:02:08
Commission) a alors poursuivi Musk pour
00:02:11
avoir induit en erreur les investisseurs.
00:02:14
Bien que cela ne soit pas un
00:02:16
exemple direct de deepfake ou de
00:02:18
désinformation générée par IA,
00:02:19
cela montre à quel point une
00:02:22
simple déclaration,
00:02:23
qu'elle soit vraie ou fausse,
00:02:24
peut avoir des répercussions
00:02:25
majeures sur le cours des actions,
00:02:27
la réputation d'une entreprise et
00:02:30
la confiance des investisseurs.
00:02:32
En transposant cela à la capacité de l'IA
00:02:35
de créer de faux contenus,
00:02:35
on peut imaginer les conséquences
00:02:37
potentielles si, par exemple, une
00:02:39
vidéo truquée d'un PDG d'une
00:02:41
grande entreprise était diffusée
00:02:43
où il annoncerait faussement
00:02:45
des nouvelles perturbatrices.
00:02:47
Les marchés financiers pourraient
00:02:49
réagir avant même de vérifier
00:02:51
l'authenticité de la déclaration.
00:02:52
Au niveau sociétal,
00:02:54
les conséquences sont encore plus grandes.
00:02:57
Des élections peuvent être truquées,
00:02:59
des tensions peuvent être exacerbées,
00:03:02
les familles peuvent être divisées
00:03:04
par des vérités contradictoires.
00:03:06
Quand les informations deviennent
00:03:08
indiscernables de la désinformation,
00:03:09
la structure même de notre
00:03:11
démocratie est mise à l'épreuve.
00:03:13
Mais tout n'est pas sombre.
00:03:15
Il existe des contre-mesures.
00:03:17
Des journalistes,
00:03:18
des chercheurs et des technologues
00:03:20
travaillent sans relâche pour détecter
00:03:23
et combattre ces contrefaçons.
00:03:24
Ils développent des outils
00:03:26
pour identifier les deepfakes,
00:03:28
éduquent le public sur la
00:03:29
manière de repérer les signes
00:03:31
révélateurs et tentent de rétablir la
00:03:33
confiance dans l'ère post-vérité.
00:03:36
Nous sommes à un carrefour.
00:03:38
La technologie avance et nous
00:03:40
devons avancer avec elle en
00:03:42
étant toujours informés,
00:03:43
toujours vigilants et toujours prêts
00:03:45
à discerner la vérité de la fiction.

Il n’existe aucun élément correspondant à votre recherche dans cette vidéo...
Effectuez une autre recherche ou retournez au contenu !

 

00:00:04
Künstliche Intelligenz prägt
00:00:06
unsere Welt so zu gestalten, dass
00:00:08
Das hätten wir uns nie vorstellen können.
00:00:10
Generative KIs haben
00:00:12
übertraf unsere Erwartungen.
00:00:14
Heute können sie
00:00:15
Komponieren Sie ähnliche Melodien
00:00:16
bis hin zu denen großer Musiker,
00:00:18
Schreiben Sie Artikel in der
00:00:20
Stil renommierter Journalisten,
00:00:21
Reproduzieren Sie Stimmen, die unsere
00:00:23
Lieblingsschauspieler und -sänger und
00:00:25
Generieren Sie Gesichter und Videos, wenn
00:00:27
so realistisch, wie man denken würde, dass sie
00:00:28
Ausschnitte aus einem Hollywood-Film.
00:00:32
Was einst in die
00:00:33
Seiten mit Science-Fiction-Romanen
00:00:35
erwacht nun vor unseren Augen zum Leben
00:00:37
dank Anwendungen wie DeepMind,
00:00:40
GPT-4 oder Midjourney...
00:00:42
Deepfakes gehören zu den Apps
00:00:45
die umstrittensten Aspekte dieser Technologie.
00:00:48
Stellen Sie sich ein Video von einem Prominenten vor
00:00:51
ein explosives Statement.
00:00:54
Abgesehen davon, dass diese Aussage nie
00:00:56
gemacht wurde. In einer Welt, in der wir
00:00:58
verlassen uns auf das, was wir sehen und hören,
00:01:01
Die Auswirkungen können verheerend sein.
00:01:04
Unternehmen sind
00:01:06
besonders gefährdet sind.
00:01:07
Ein einfaches gefälschtes Video kann
00:01:10
Eine Finanzkrise, die Jahre ruiniert
00:01:13
Branding oder Verwüstung unter den
00:01:15
Aktionäre und Kunden.
00:01:17
Aber es ist nicht nur
00:01:19
Es geht nur ums Geld.
00:01:20
Vertrauen
00:01:20
einmal verloren,
00:01:21
ist schwer wiederherzustellen. In einem
00:01:25
vernetzte Unternehmenswelt,
00:01:26
Fehlinformationen können schnell
00:01:28
viral gehen,
00:01:29
nicht nur ein Unternehmen betreffen,
00:01:31
sondern eine ganze Branche.
00:01:33
Eines der markantesten Beispiele
00:01:35
die Verwundbarkeit veranschaulichen können
00:01:37
Unternehmen angesichts der
00:01:39
Desinformation ist Teslas
00:01:42
im Jahr 2018.
00:01:43
Im August 2018 hat Elon Musk,
00:01:46
Der CEO von Tesla,
00:01:48
twitterte, dass er darüber nachdenke,
00:01:50
Tesla von der Börse nehmen
00:01:51
und dass er "die Finanzierung gesichert" habe.
00:01:54
Dies führte zu einem sprunghaften Anstieg der
00:01:57
Der Aktienkurs von Tesla ist um mehr als 10 % gestiegen.
00:01:59
Aber
00:02:00
Später stellte sich heraus, dass Musk
00:02:02
keinen konkreten Plan hatten oder
00:02:04
Die Finanzierung einer solchen Operation ist gesichert.
00:02:06
Die SEC (Securities and Exchange
00:02:08
Kommission) verklagte Musk daraufhin wegen
00:02:11
Irreführung von Anlegern.
00:02:14
Obwohl es sich hierbei nicht um eine
00:02:16
Direktes Beispiel für ein Deepfake oder
00:02:18
KI-generierte Fehlinformationen,
00:02:19
Dies zeigt, wie ein
00:02:22
einfache Deklaration,
00:02:23
ob wahr oder falsch,
00:02:24
kann Auswirkungen haben
00:02:25
Aktienkurse,
00:02:27
die Reputation eines Unternehmens und
00:02:30
Vertrauen der Anleger.
00:02:32
Umsetzung auf die Fähigkeiten der KI
00:02:35
falsche Inhalte erstellen,
00:02:35
Man kann sich die Folgen vorstellen
00:02:37
Potenzial, wenn z.B. ein
00:02:39
gefälschtes Video eines CEO eines
00:02:41
große Firma wurde ausgestrahlt
00:02:43
wo er fälschlicherweise verkünden würde,
00:02:45
disruptive Nachrichten.
00:02:47
Die Finanzmärkte könnten
00:02:49
Reagieren Sie, bevor Sie überhaupt prüfen
00:02:51
die Authentizität der Aussage.
00:02:52
Auf gesellschaftlicher Ebene
00:02:54
Die Folgen sind noch größer.
00:02:57
Wahlen können manipuliert werden,
00:02:59
Spannungen verschärfen können,
00:03:02
Familien können aufgeteilt werden
00:03:04
durch widersprüchliche Wahrheiten.
00:03:06
Wenn Informationen
00:03:08
nicht von Fehlinformationen zu unterscheiden,
00:03:09
die Struktur unserer
00:03:11
Die Demokratie steht auf dem Prüfstand.
00:03:13
Aber es ist nicht alles Untergangsstimmung.
00:03:15
Gegenmaßnahmen gibt es.
00:03:17
Journalisten
00:03:18
Forscher und Technologen
00:03:20
unermüdlich daran arbeiten,
00:03:23
und diese Fälschungen zu bekämpfen.
00:03:24
Sie entwickeln Werkzeuge
00:03:26
um Deepfakes zu erkennen,
00:03:28
Aufklärung der Öffentlichkeit über die
00:03:29
So erkennen Sie die Anzeichen
00:03:31
und versuchen, die
00:03:33
Zuversicht in der postfaktischen Ära.
00:03:36
Wir stehen an einem Scheideweg.
00:03:38
Die Technologie schreitet voran und wir sind
00:03:40
Wir müssen damit voranschreiten, indem wir
00:03:42
immer auf dem Laufenden zu sein,
00:03:43
Immer wachsam und immer bereit
00:03:45
Wahrheit von Fiktion zu unterscheiden.

Il n’existe aucun élément correspondant à votre recherche dans cette vidéo...
Effectuez une autre recherche ou retournez au contenu !

 

00:00:04
Formas de Inteligencia Artificial
00:00:06
nuestro mundo de una manera que
00:00:08
Nunca lo hubiéramos imaginado.
00:00:10
Las IA generativas tienen
00:00:12
trascendió nuestras expectativas.
00:00:14
Hoy en día, pueden
00:00:15
Componer melodías similares
00:00:16
a las de los grandes músicos,
00:00:18
Escribe artículos en el archivo
00:00:20
estilo de periodistas de renombre,
00:00:21
Reproducir voces que evoquen nuestra
00:00:23
actores y cantantes favoritos y
00:00:25
Generar caras y videos si
00:00:27
tan realistas como se podría pensar que eran
00:00:28
Extractos de una película de Hollywood.
00:00:32
Lo que una vez fue relegado a la
00:00:33
Páginas de novelas de ciencia ficción
00:00:35
ahora cobra vida ante nuestros ojos
00:00:37
gracias a aplicaciones como DeepMind,
00:00:40
GPT-4 o Midjourney...
00:00:42
Los deepfakes se encuentran entre las aplicaciones
00:00:45
los aspectos más controvertidos de esta tecnología.
00:00:48
Imagina un video de una celebridad
00:00:51
haciendo una declaración explosiva.
00:00:54
Excepto que esta afirmación nunca ha sido
00:00:56
se ha hecho. En un mundo en el que
00:00:58
confiar en lo que vemos y oímos,
00:01:01
Las implicaciones pueden ser devastadoras.
00:01:04
Las empresas son:
00:01:06
particularmente vulnerables.
00:01:07
Un simple video falso puede desencadenar
00:01:10
Una crisis financiera que arruina años
00:01:13
o causando estragos entre los
00:01:15
accionistas y clientes.
00:01:17
Pero no es solo
00:01:19
Todo es cuestión de dinero.
00:01:20
Confianza
00:01:20
una vez perdido,
00:01:21
es difícil de restaurar. En un
00:01:25
mundo corporativo interconectado,
00:01:26
La desinformación puede
00:01:28
se vuelven virales,
00:01:29
afectando no solo a una empresa,
00:01:31
sino toda una industria.
00:01:33
Uno de los ejemplos más llamativos
00:01:35
que puede ilustrar la vulnerabilidad
00:01:37
empresas frente a la
00:01:39
la desinformación es la de Tesla
00:01:42
en 2018.
00:01:43
En agosto de 2018, Elon Musk,
00:01:46
El CEO de Tesla,
00:01:48
tuiteó que estaba considerando
00:01:50
Eliminar a Tesla del mercado de valores
00:01:51
y que tenía "la financiación asegurada".
00:01:54
Esto llevó a un aumento en la
00:01:57
El precio de las acciones de Tesla en más de un 10%.
00:01:59
Sin embargo
00:02:00
más tarde resultó que Musk
00:02:02
no tenía un plan concreto o
00:02:04
Financiación asegurada para dicha operación.
00:02:06
La SEC (Bolsa y Valores de Estados Unidos)
00:02:08
Comisión) luego demandó a Musk por
00:02:11
inducir a error a los inversores.
00:02:14
Aunque no se trata de un
00:02:16
Ejemplo directo de un deepfake o
00:02:18
Desinformación generada por IA,
00:02:19
Esto muestra cómo un
00:02:22
declaración simple,
00:02:23
ya sea verdadero o falso,
00:02:24
puede tener repercusiones
00:02:25
precios de las acciones,
00:02:27
la reputación de una empresa y
00:02:30
confianza de los inversionistas.
00:02:32
Trasladando esto a la capacidad de la IA
00:02:35
crear contenido falso,
00:02:35
Uno puede imaginar las consecuencias
00:02:37
potencial si, por ejemplo, un
00:02:39
video falso de un CEO de una
00:02:41
Se transmitió una gran empresa
00:02:43
donde anunciaría falsamente
00:02:45
noticias disruptivas.
00:02:47
Los mercados financieros podrían
00:02:49
Reacciona incluso antes de comprobarlo
00:02:51
la autenticidad de la declaración.
00:02:52
A nivel social,
00:02:54
Las consecuencias son aún mayores.
00:02:57
Las elecciones pueden ser amañadas,
00:02:59
las tensiones pueden exacerbarse,
00:03:02
Las familias se pueden dividir
00:03:04
por verdades contradictorias.
00:03:06
Cuando la información se convierte en
00:03:08
indistinguible de la desinformación,
00:03:09
la estructura misma de nuestro
00:03:11
La democracia está siendo puesta a prueba.
00:03:13
Pero no todo es pesimismo.
00:03:15
Hay contramedidas.
00:03:17
Periodistas
00:03:18
Investigadores y tecnólogos
00:03:20
Trabaja incansablemente para detectar
00:03:23
y luchar contra estas falsificaciones.
00:03:24
Desarrollan herramientas
00:03:26
para identificar deepfakes,
00:03:28
educar al público sobre la
00:03:29
Cómo detectar las señales
00:03:31
e intentar restaurar el
00:03:33
Confianza en la era de la posverdad.
00:03:36
Estamos en una encrucijada.
00:03:38
La tecnología avanza y nosotros estamos
00:03:40
Tenemos que avanzar en ello
00:03:42
estar siempre informado,
00:03:43
Siempre vigilantes y siempre listos
00:03:45
discernir la verdad de la ficción.

Il n’existe aucun élément correspondant à votre recherche dans cette vidéo...
Effectuez une autre recherche ou retournez au contenu !

 

00:00:04
Bentuk Kecerdasan Buatan
00:00:06
dunia kita dengan cara yang
00:00:08
Kami tidak akan pernah membayangkan.
00:00:10
AI generatif memiliki
00:00:12
melampaui harapan kami.
00:00:14
Hari ini, mereka bisa
00:00:15
Buat melodi serupa
00:00:16
bagi para musisi hebat,
00:00:18
Menulis artikel di
00:00:20
gaya jurnalis terkenal,
00:00:21
Mereproduksi suara yang membangkitkan
00:00:23
aktor dan penyanyi favorit dan
00:00:25
Hasilkan wajah &; video jika
00:00:27
realistis seperti yang Anda kira
00:00:28
Kutipan dari film Hollywood.
00:00:32
Apa yang pernah diturunkan ke
00:00:33
Halaman Novel Fiksi Ilmiah
00:00:35
Sekarang menjadi hidup di depan mata kita
00:00:37
berkat aplikasi seperti DeepMind,
00:00:40
GPT-4 atau Midjourney...
00:00:42
Deepfake adalah salah satu aplikasi
00:00:45
Aspek paling kontroversial dari teknologi ini.
00:00:48
Bayangkan sebuah video seorang selebriti
00:00:51
membuat pernyataan eksplosif.
00:00:54
Kecuali bahwa pernyataan ini tidak pernah
00:00:56
telah dibuat. Di dunia di mana kita
00:00:58
mengandalkan apa yang kita lihat dan dengar,
00:01:01
Implikasinya bisa sangat menghancurkan.
00:01:04
Perusahaan adalah
00:01:06
sangat rentan.
00:01:07
Video palsu sederhana dapat memicu
00:01:10
Krisis keuangan, menghancurkan tahun-tahun
00:01:13
branding atau mendatangkan malapetaka di antara
00:01:15
pemegang saham dan pelanggan.
00:01:17
Tapi itu tidak hanya
00:01:19
Ini semua tentang uang.
00:01:20
Percaya
00:01:20
pernah hilang,
00:01:21
Sulit dipulihkan. Dalam sebuah
00:01:25
dunia usaha yang saling berhubungan,
00:01:26
Informasi yang salah dapat dengan cepat
00:01:28
menjadi viral,
00:01:29
mempengaruhi tidak hanya perusahaan,
00:01:31
tetapi seluruh industri.
00:01:33
Salah satu contoh paling mencolok
00:01:35
yang dapat menggambarkan kerentanan
00:01:37
perusahaan dalam menghadapi
00:01:39
disinformasi adalah milik Tesla
00:01:42
pada tahun 2018.
00:01:43
Pada Agustus 2018, Elon Musk,
00:01:46
CEO Tesla,
00:01:48
tweeted bahwa dia sedang mempertimbangkan
00:01:50
Hapus Tesla dari pasar saham
00:01:51
dan bahwa dia memiliki "pembiayaan yang dijamin".
00:01:54
Hal ini menyebabkan lonjakan
00:01:57
Harga saham Tesla lebih dari 10%.
00:01:59
Namun
00:02:00
kemudian ternyata Musk
00:02:02
tidak memiliki rencana konkret atau
00:02:04
Pendanaan dijamin untuk operasi semacam itu.
00:02:06
SEC (Sekuritas dan Bursa
00:02:08
Komisi) kemudian menggugat Musk untuk
00:02:11
investor yang menyesatkan.
00:02:14
Meskipun ini bukan
00:02:16
Contoh langsung deepfake atau
00:02:18
Misinformasi yang dihasilkan AI,
00:02:19
Ini menunjukkan bagaimana a
00:02:22
deklarasi sederhana,
00:02:23
apakah benar atau salah,
00:02:24
dapat berakibat
00:02:25
harga saham,
00:02:27
reputasi perusahaan dan
00:02:30
kepercayaan investor.
00:02:32
Transposisi ini ke kemampuan AI
00:02:35
buat konten palsu,
00:02:35
Bisa dibayangkan konsekuensinya
00:02:37
potensial jika, misalnya, a
00:02:39
video palsu dari seorang CEO
00:02:41
Perusahaan besar disiarkan
00:02:43
di mana dia akan mengumumkan secara salah
00:02:45
berita yang mengganggu.
00:02:47
Pasar keuangan bisa
00:02:49
Bereaksi bahkan sebelum Anda memeriksa
00:02:51
keaslian pernyataan.
00:02:52
Di tingkat masyarakat,
00:02:54
Konsekuensinya bahkan lebih besar.
00:02:57
Pemilu bisa dicurangi,
00:02:59
ketegangan dapat diperburuk,
00:03:02
Keluarga dapat dibagi
00:03:04
dengan kebenaran yang kontradiktif.
00:03:06
Ketika informasi menjadi
00:03:08
tidak dapat dibedakan dari informasi yang salah,
00:03:09
struktur kami
00:03:11
Demokrasi sedang diuji.
00:03:13
Tapi itu tidak semua malapetaka dan kesuraman.
00:03:15
Ada tindakan pencegahan.
00:03:17
Wartawan
00:03:18
Peneliti dan Teknolog
00:03:20
Bekerja tanpa lelah untuk mendeteksi
00:03:23
dan melawan pemalsuan ini.
00:03:24
Mereka mengembangkan alat
00:03:26
untuk mengidentifikasi deepfake,
00:03:28
mendidik masyarakat tentang
00:03:29
Cara mengenali tanda-tanda
00:03:31
dan upaya untuk memulihkan
00:03:33
Keyakinan di era pasca-kebenaran.
00:03:36
Kami berada di persimpangan jalan.
00:03:38
Teknologi semakin maju dan kami
00:03:40
Kita perlu bergerak maju dengan itu dengan
00:03:42
selalu diinformasikan,
00:03:43
Selalu waspada dan selalu siap
00:03:45
untuk membedakan kebenaran dari fiksi.

Il n’existe aucun élément correspondant à votre recherche dans cette vidéo...
Effectuez une autre recherche ou retournez au contenu !

 

00:00:04
Forme di intelligenza artificiale
00:00:06
il nostro mondo in un modo che
00:00:08
Non l'avremmo mai immaginato.
00:00:10
Le IA generative hanno
00:00:12
ha trasceso le nostre aspettative.
00:00:14
Oggi possono
00:00:15
Componi melodie simili
00:00:16
a quelle dei grandi musicisti,
00:00:18
Scrivi articoli nel file
00:00:20
stile di giornalisti rinomati,
00:00:21
Riprodurre voci che evocano il nostro
00:00:23
attori e cantanti preferiti e
00:00:25
Genera volti e video se
00:00:27
realistici come si potrebbe pensare che fossero
00:00:28
Estratti da un film di Hollywood.
00:00:32
Ciò che un tempo era relegato al
00:00:33
Pagine di romanzi di fantascienza
00:00:35
ora prende vita davanti ai nostri occhi
00:00:37
grazie ad applicazioni come DeepMind,
00:00:40
GPT-4 o Midjourney...
00:00:42
I deepfake sono tra le app
00:00:45
gli aspetti più controversi di questa tecnologia.
00:00:48
Immagina un video di una celebrità
00:00:51
facendo una dichiarazione esplosiva.
00:00:54
Solo che questa affermazione non è mai stata
00:00:56
è stato fatto. In un mondo in cui noi
00:00:58
ci affidiamo a ciò che vediamo e sentiamo,
00:01:01
Le implicazioni possono essere devastanti.
00:01:04
Le aziende sono
00:01:06
particolarmente vulnerabile.
00:01:07
Un semplice video falso può attivarsi
00:01:10
Una crisi finanziaria che rovina anni
00:01:13
branding o scatenare il caos tra
00:01:15
azionisti e clienti.
00:01:17
Ma non è solo
00:01:19
È tutta una questione di soldi.
00:01:20
Fiducia
00:01:20
una volta perso,
00:01:21
è difficile da ripristinare. In un
00:01:25
mondo aziendale interconnesso,
00:01:26
La disinformazione può essere rapidamente
00:01:28
diventare virale,
00:01:29
che interessa non solo un'azienda,
00:01:31
ma un intero settore.
00:01:33
Uno degli esempi più eclatanti
00:01:35
che può illustrare la vulnerabilità
00:01:37
imprese di fronte alla
00:01:39
la disinformazione è di Tesla
00:01:42
nel 2018.
00:01:43
Nell'agosto 2018, Elon Musk,
00:01:46
CEO di Tesla,
00:01:48
ha twittato che stava prendendo in considerazione
00:01:50
Rimuovi Tesla dal mercato azionario
00:01:51
e che aveva "il finanziamento assicurato".
00:01:54
Ciò ha portato a un'impennata del
00:01:57
Il prezzo delle azioni di Tesla è aumentato di oltre il 10%.
00:01:59
Tuttavia
00:02:00
in seguito si è scoperto che Musk
00:02:02
non aveva un piano concreto o
00:02:04
Finanziamento garantito per tale operazione.
00:02:06
La SEC (Securities and Exchange
00:02:08
Commissione) ha poi citato in giudizio Musk per
00:02:11
investitori fuorvianti.
00:02:14
Anche se questo non è un
00:02:16
Esempio diretto di deepfake o
00:02:18
disinformazione generata dall'IA,
00:02:19
Questo mostra come un
00:02:22
dichiarazione semplice,
00:02:23
vero o falso che sia,
00:02:24
può avere ripercussioni
00:02:25
prezzi delle azioni,
00:02:27
la reputazione di un'azienda e
00:02:30
fiducia degli investitori.
00:02:32
Trasponendo questo concetto alla capacità dell'IA
00:02:35
creare contenuti falsi,
00:02:35
Si possono immaginare le conseguenze
00:02:37
potenziale se, ad esempio, un
00:02:39
video falso di un CEO di un
00:02:41
grande azienda è stato trasmesso
00:02:43
dove avrebbe falsamente annunciato
00:02:45
Notizie dirompenti.
00:02:47
I mercati finanziari potrebbero
00:02:49
Reagisci prima ancora di controllare
00:02:51
l'autenticità della dichiarazione.
00:02:52
A livello sociale,
00:02:54
Le conseguenze sono ancora maggiori.
00:02:57
Le elezioni possono essere truccate,
00:02:59
le tensioni possono essere esacerbate,
00:03:02
Le famiglie possono essere divise
00:03:04
da verità contraddittorie.
00:03:06
Quando l'informazione diventa
00:03:08
indistinguibile dalla disinformazione,
00:03:09
la struttura stessa del nostro
00:03:11
La democrazia è messa alla prova.
00:03:13
Ma non è tutto rose e fiori.
00:03:15
Ci sono delle contromisure.
00:03:17
Giornalisti
00:03:18
Ricercatori e tecnologi
00:03:20
lavorare instancabilmente per rilevare
00:03:23
e combattere queste contraffazioni.
00:03:24
Sviluppano strumenti
00:03:26
per identificare i deepfake,
00:03:28
educare il pubblico sulla
00:03:29
Come individuare i segnali
00:03:31
e tentare di ripristinare il
00:03:33
La fiducia nell'era della post-verità.
00:03:36
Siamo a un bivio.
00:03:38
La tecnologia avanza e noi siamo
00:03:40
Dobbiamo andare avanti in questo senso
00:03:42
essere sempre informati,
00:03:43
Sempre vigile e sempre pronto
00:03:45
discernere la verità dalla finzione.

Il n’existe aucun élément correspondant à votre recherche dans cette vidéo...
Effectuez une autre recherche ou retournez au contenu !

 

00:00:04
人工知能図形
00:00:06
私たちの世界は、
00:00:08
想像もしていなかったでしょう。
00:00:10
ジェネレーティブAIは、
00:00:12
私たちの期待を上回りました。
00:00:14
今日では、
00:00:15
似たようなメロディーを作曲する
00:00:16
偉大な音楽家の人たちに、
00:00:18
で記事を書く
00:00:20
著名なジャーナリストのスタイル、
00:00:21
私たちを呼び起こす声を再現
00:00:23
好きな俳優や歌手、
00:00:25
Generate Faces & Videos If
00:00:27
あなたが思うほど現実的です
00:00:28
ハリウッド映画からの抜粋。
00:00:32
かつて追いやられていたもの
00:00:33
サイエンスフィクション小説のページ
00:00:35
今、私たちの目の前で命が吹き込まれます
00:00:37
DeepMindなどのアプリケーションのおかげで、
00:00:40
GPT-4かMidjourneyか...
00:00:42
ディープフェイクはアプリの一つです
00:00:45
このテクノロジーの最も物議を醸す側面。
00:00:48
有名人の動画を想像してみてください
00:00:51
爆発的な声明を出す。
00:00:54
ただし、このステートメントは
00:00:56
が作られました。私たちが
00:00:58
私たちが見たり聞いたりすることを頼りに、
00:01:01
その影響は壊滅的なものになる可能性があります。
00:01:04
企業は
00:01:06
特に脆弱です。
00:01:07
単純な偽のビデオがトリガーされる可能性があります
00:01:10
金融危機、年を台無しにする
00:01:13
ブランディングや大混乱を引き起こすこと
00:01:15
株主と顧客。
00:01:17
しかし、それだけではありません
00:01:19
それはすべてお金についてです。
00:01:20
信託
00:01:20
一度迷うと、
00:01:21
復元が困難です。で、
00:01:25
相互接続された企業の世界、
00:01:26
誤った情報はすぐに
00:01:28
バイラルになり、
00:01:29
企業だけでなく、
00:01:31
しかし、業界全体です。
00:01:33
最も顕著な例の1つ
00:01:35
脆弱性を示すことができる
00:01:37
に直面している企業
00:01:39
偽情報はテスラのものです
00:01:42
2018年に。
00:01:43
2018年8月、イーロンマスクは、
00:01:46
テスラのCEO、
00:01:48
検討中とツイートした
00:01:50
テスラを株式市場から排除する
00:01:51
そして、彼は「資金を確保した」と述べた。
00:01:54
これにより、
00:01:57
テスラの株価は10%以上上昇しました。
00:01:59
しかし
00:02:00
その後、マスク氏は
00:02:02
具体的な計画がなかったり、
00:02:04
そのための資金確保
00:02:06
SEC(証券取引委員会)
00:02:08
委員会)はその後、マスク氏を訴えた。
00:02:11
投資家を誤解させる。
00:02:14
これは
00:02:16
ディープフェイクの直接的な例や
00:02:18
AIが生成した誤情報、
00:02:19
これは、
00:02:22
単純な宣言、
00:02:23
真か偽かは別として、
00:02:24
影響がある可能性があります
00:02:25
株価、
00:02:27
企業の評判と
00:02:30
投資家の信頼。
00:02:32
これをAIの能力に置き換えると
00:02:35
虚偽のコンテンツを作成する。
00:02:35
その結果は想像に難くない
00:02:37
たとえば、
00:02:39
のCEOの偽造ビデオ
00:02:41
大企業が放送された
00:02:43
彼が虚偽の発表をするだろう場所
00:02:45
ディスラプティブなニュース。
00:02:47
金融市場は、
00:02:49
確認する前に対応
00:02:51
ステートメントの信憑性。
00:02:52
社会レベルでは、
00:02:54
その結果はさらに大きくなります。
00:02:57
選挙は不正に操作される可能性があり、
00:02:59
緊張が悪化する可能性があり、
00:03:02
家族を分けることができます
00:03:04
矛盾する真実によって。
00:03:06
情報が
00:03:08
誤報と見分けがつかない、
00:03:09
私たちの構造そのもの
00:03:11
民主主義が試されている。
00:03:13
しかし、悲観的なことばかりではありません。
00:03:15
対策があります。
00:03:17
ジャーナリスト
00:03:18
研究者・技術者
00:03:20
たゆまぬ努力で検出
00:03:23
そして、これらの偽造品と戦います。
00:03:24
彼らはツールを開発します
00:03:26
ディープフェイクを特定するには、
00:03:28
について一般の人々を教育する
00:03:29
兆候の見分け方
00:03:31
そして、復元を試みます。
00:03:33
ポスト・トゥルース時代への自信。
00:03:36
私たちは今、岐路に立っています。
00:03:38
テクノロジーは進歩しており、私たちは
00:03:40
私たちは、それを進める必要があります。
00:03:42
常に情報を得て、
00:03:43
常に警戒を怠らず、常に準備万端
00:03:45
真実とフィクションを見分けること。

Il n’existe aucun élément correspondant à votre recherche dans cette vidéo...
Effectuez une autre recherche ou retournez au contenu !

 

00:00:04
Kunstmatige intelligentie vormt
00:00:06
onze wereld op een manier die
00:00:08
Dat hadden we ons nooit kunnen voorstellen.
00:00:10
Generatieve AI's hebben
00:00:12
overtrof onze verwachtingen.
00:00:14
Vandaag de dag kunnen ze
00:00:15
Componeer gelijkaardige melodieën
00:00:16
aan die van grote musici,
00:00:18
Schrijf artikelen in de
00:00:20
stijl van gerenommeerde journalisten,
00:00:21
Reproduceer stemmen die onze
00:00:23
favoriete acteurs en zangers en
00:00:25
Gezichten en video's genereren als
00:00:27
zo realistisch als je zou denken dat ze waren
00:00:28
Fragmenten uit een Hollywood-film.
00:00:32
Wat ooit werd verbannen naar de
00:00:33
Pagina's van sciencefictionromans
00:00:35
komt nu voor onze ogen tot leven
00:00:37
dankzij applicaties zoals DeepMind,
00:00:40
GPT-4 of Midjourney...
00:00:42
Deepfakes behoren tot de apps
00:00:45
de meest controversiële aspecten van deze technologie.
00:00:48
Stel je een video voor van een beroemdheid
00:00:51
een explosief statement maken.
00:00:54
Behalve dat deze verklaring nooit is
00:00:56
is gemaakt. In een wereld waarin we
00:00:58
vertrouwen op wat we zien en horen,
00:01:01
De implicaties kunnen verwoestend zijn.
00:01:04
Bedrijven zijn
00:01:06
bijzonder kwetsbaar zijn.
00:01:07
Een eenvoudige vervalste video kan triggeren
00:01:10
Een financiële crisis, die jaren verpest
00:01:13
branding of het aanrichten van ravage onder
00:01:15
aandeelhouders en klanten.
00:01:17
Maar het is niet alleen
00:01:19
Het draait allemaal om het geld.
00:01:20
Vertrouwen
00:01:20
eenmaal verloren,
00:01:21
is moeilijk te herstellen. In een
00:01:25
onderling verbonden bedrijfswereld,
00:01:26
Verkeerde informatie kan snel
00:01:28
viraal gaan,
00:01:29
niet alleen een bedrijf, maar ook een
00:01:31
maar een hele industrie.
00:01:33
Een van de meest sprekende voorbeelden
00:01:35
die kwetsbaarheid kan illustreren
00:01:37
bedrijven in het licht van de
00:01:39
desinformatie is Tesla's
00:01:42
in 2018.
00:01:43
In augustus 2018 heeft Elon Musk,
00:01:46
Tesla's CEO,
00:01:48
tweette dat hij overwoog
00:01:50
Haal Tesla van de beurs
00:01:51
en dat hij "de financiering rond had".
00:01:54
Dit leidde tot een stijging van de
00:01:57
Tesla's aandelenkoers met meer dan 10%.
00:01:59
Echter
00:02:00
later bleek dat Musk
00:02:02
geen concreet plan had of
00:02:04
Financiering voor een dergelijke operatie.
00:02:06
De SEC (Securities and Exchange
00:02:08
Commissie) klaagde Musk vervolgens aan voor
00:02:11
het misleiden van beleggers.
00:02:14
Hoewel dit geen
00:02:16
Direct voorbeeld van een deepfake of
00:02:18
Door AI gegenereerde desinformatie,
00:02:19
Dit laat zien hoe een
00:02:22
eenvoudige verklaring,
00:02:23
of het nu waar of onwaar is,
00:02:24
kan gevolgen hebben
00:02:25
aandelenkoersen,
00:02:27
de reputatie van een bedrijf en
00:02:30
vertrouwen van beleggers.
00:02:32
Dit vertalen naar de mogelijkheden van AI
00:02:35
valse inhoud creëren,
00:02:35
Men kan zich de gevolgen voorstellen
00:02:37
potentieel als, bijvoorbeeld, een
00:02:39
vervalste video van een CEO van een
00:02:41
groot bedrijf werd uitgezonden
00:02:43
waar hij valselijk zou aankondigen
00:02:45
ontwrichtend nieuws.
00:02:47
De financiële markten zouden
00:02:49
Reageer voordat je het zelfs maar checkt
00:02:51
de authenticiteit van de verklaring.
00:02:52
Op maatschappelijk niveau
00:02:54
De gevolgen zijn nog groter.
00:02:57
Verkiezingen kunnen worden gemanipuleerd,
00:02:59
spanningen kunnen worden verergerd,
00:03:02
Gezinnen kunnen worden verdeeld
00:03:04
door tegenstrijdige waarheden.
00:03:06
Wanneer informatie wordt
00:03:08
niet te onderscheiden van desinformatie,
00:03:09
de structuur van onze
00:03:11
De democratie wordt op de proef gesteld.
00:03:13
Maar het is niet allemaal kommer en kwel.
00:03:15
Er zijn tegenmaatregelen.
00:03:17
Journalisten
00:03:18
Onderzoekers en technologen
00:03:20
Werk onvermoeibaar om te detecteren
00:03:23
en deze vervalsingen te bestrijden.
00:03:24
Ze ontwikkelen tools
00:03:26
om deepfakes te identificeren,
00:03:28
het publiek voor te lichten over de
00:03:29
Hoe herken je de borden?
00:03:31
en proberen de
00:03:33
Vertrouwen in het post-truth tijdperk.
00:03:36
We staan op een kruispunt.
00:03:38
De technologie gaat vooruit en wij
00:03:40
We moeten er werk van maken door
00:03:42
altijd op de hoogte zijn,
00:03:43
Altijd waakzaam en altijd paraat
00:03:45
om waarheid van fictie te onderscheiden.

Il n’existe aucun élément correspondant à votre recherche dans cette vidéo...
Effectuez une autre recherche ou retournez au contenu !

 

00:00:04
Formas de Inteligência Artificial
00:00:06
o nosso mundo de uma forma que
00:00:08
Nunca teríamos imaginado.
00:00:10
As IAs generativas têm
00:00:12
transcendeu as nossas expectativas.
00:00:14
Hoje, eles podem
00:00:15
Compor melodias semelhantes
00:00:16
aos de grandes músicos,
00:00:18
Escreva artigos no
00:00:20
estilo de jornalistas de renome,
00:00:21
Reproduzir vozes que evocam a nossa
00:00:23
atores e cantores favoritos e
00:00:25
Gerar rostos & vídeos se
00:00:27
tão realistas quanto você pensaria que eles eram
00:00:28
Trechos de um filme de Hollywood.
00:00:32
O que antes era relegado ao
00:00:33
Páginas de Romances de Ficção Científica
00:00:35
agora ganha vida diante dos nossos olhos
00:00:37
graças a aplicações como o DeepMind,
00:00:40
GPT-4 ou Midjourney...
00:00:42
Deepfakes estão entre os aplicativos
00:00:45
os aspetos mais controversos desta tecnologia.
00:00:48
Imagine um vídeo de uma celebridade
00:00:51
fazer uma declaração explosiva.
00:00:54
Só que esta afirmação nunca foi
00:00:56
foi feita. Num mundo onde
00:00:58
confie no que vemos e ouvimos,
00:01:01
As implicações podem ser devastadoras.
00:01:04
As empresas são
00:01:06
particularmente vulneráveis.
00:01:07
Um simples vídeo falsificado pode desencadear
00:01:10
Uma crise financeira, anos arruinados
00:01:13
marcando ou causando estragos entre
00:01:15
acionistas e clientes.
00:01:17
Mas não é só
00:01:19
É tudo sobre o dinheiro.
00:01:20
Confiança,
00:01:20
uma vez perdido,
00:01:21
é difícil de restaurar. Num estudo de
00:01:25
mundo corporativo interligado,
00:01:26
A desinformação pode ser rápida
00:01:28
viralizar,
00:01:29
afetando não só uma empresa,
00:01:31
mas toda uma indústria.
00:01:33
Um dos exemplos mais marcantes
00:01:35
que pode ilustrar a vulnerabilidade
00:01:37
empresas face à
00:01:39
a desinformação é da Tesla
00:01:42
em 2018.
00:01:43
Em agosto de 2018, Elon Musk,
00:01:46
CEO da Tesla,
00:01:48
tuitou que estava considerando
00:01:50
Remover Tesla do mercado de ações
00:01:51
e que tinha "o financiamento assegurado".
00:01:54
Esta situação levou a um aumento da
00:01:57
O preço das ações da Tesla subiu mais de 10%.
00:01:59
No entanto
00:02:00
mais tarde descobriu-se que Musk
00:02:02
não tinham um plano concreto ou
00:02:04
Financiamento garantido para tal operação.
00:02:06
A SEC (Valores Mobiliários e Câmbio)
00:02:08
Comissão) em seguida, processou Musk por
00:02:11
induzir os investidores em erro.
00:02:14
Embora este não seja um
00:02:16
Exemplo direto de deepfake ou
00:02:18
Desinformação gerada por IA,
00:02:19
Isto mostra como um
00:02:22
declaração simples,
00:02:23
se é verdadeiro ou falso,
00:02:24
pode ter repercussões
00:02:25
preços das ações,
00:02:27
a reputação de uma empresa e
00:02:30
confiança dos investidores.
00:02:32
Transpondo isso para a capacidade da IA
00:02:35
criar conteúdo falso,
00:02:35
Pode-se imaginar as consequências
00:02:37
potencial se, por exemplo, um
00:02:39
vídeo falsificado de um CEO de um
00:02:41
grande empresa foi transmitida
00:02:43
onde anunciaria falsamente
00:02:45
notícias disruptivas.
00:02:47
Os mercados financeiros poderiam
00:02:49
Reaja antes mesmo de verificar
00:02:51
a autenticidade da declaração.
00:02:52
A nível societal,
00:02:54
As consequências são ainda maiores.
00:02:57
As eleições podem ser fraudadas,
00:02:59
as tensões podem ser exacerbadas,
00:03:02
As famílias podem ser divididas
00:03:04
por verdades contraditórias.
00:03:06
Quando a informação se torna
00:03:08
indistinguível da desinformação,
00:03:09
a própria estrutura do nosso
00:03:11
A democracia está a ser posta à prova.
00:03:13
Mas nem tudo é desgraça.
00:03:15
Há contramedidas.
00:03:17
Jornalistas,
00:03:18
investigadores e tecnólogos
00:03:20
trabalhar incansavelmente para detetar
00:03:23
e combater estas contrafações.
00:03:24
Desenvolvem ferramentas
00:03:26
para identificar deepfakes,
00:03:28
educar o público sobre a
00:03:29
Como identificar os sinais
00:03:31
e tentar restaurar o
00:03:33
Confiança na era da pós-verdade.
00:03:36
Estamos numa encruzilhada.
00:03:38
A tecnologia está a avançar e nós estamos
00:03:40
Temos de avançar com ele:
00:03:42
estar sempre informado,
00:03:43
Sempre vigilante e sempre pronto
00:03:45
discernir a verdade da ficção.

Il n’existe aucun élément correspondant à votre recherche dans cette vidéo...
Effectuez une autre recherche ou retournez au contenu !

 

00:00:04
Hình dạng trí tuệ nhân tạo
00:00:06
Thế giới của chúng ta theo cách mà
00:00:08
Chúng tôi sẽ không bao giờ tưởng tượng được.
00:00:10
AI tạo ra có
00:00:12
vượt quá mong đợi của chúng tôi.
00:00:14
Hôm nay, họ có thể
00:00:15
Sáng tác các giai điệu tương tự
00:00:16
Đối với những nhạc sĩ vĩ đại,
00:00:18
Viết bài trong
00:00:20
phong cách của các nhà báo nổi tiếng,
00:00:21
Tái tạo giọng nói gợi lên
00:00:23
diễn viên và ca sĩ yêu thích và
00:00:25
Tạo khuôn mặt và video nếu:
00:00:27
thực tế như bạn nghĩ
00:00:28
Trích đoạn từ một bộ phim Hollywood.
00:00:32
Những gì đã từng xuống hạng
00:00:33
Các trang tiểu thuyết khoa học viễn tưởng
00:00:35
Bây giờ đến với cuộc sống trước mắt chúng ta
00:00:37
nhờ các ứng dụng như DeepMind,
00:00:40
GPT-4 hoặc Midjourney...
00:00:42
Deepfake là một trong những ứng dụng
00:00:45
Các khía cạnh gây tranh cãi nhất của công nghệ này.
00:00:48
Hãy tưởng tượng một video của một người nổi tiếng
00:00:51
đưa ra một tuyên bố bùng nổ.
00:00:54
Ngoại trừ việc tuyên bố này chưa bao giờ được
00:00:56
đã được thực hiện. Trong một thế giới mà chúng ta
00:00:58
dựa vào những gì chúng ta thấy và nghe,
00:01:01
Những tác động có thể tàn phá.
00:01:04
Các công ty là
00:01:06
đặc biệt dễ bị tổn thương.
00:01:07
Một video giả mạo đơn giản có thể kích hoạt
00:01:10
Một cuộc khủng hoảng tài chính, hủy hoại nhiều năm
00:01:13
xây dựng thương hiệu hoặc tàn phá giữa
00:01:15
cổ đông và khách hàng.
00:01:17
Nhưng nó không chỉ
00:01:19
Đó là tất cả về tiền.
00:01:20
Tin
00:01:20
một khi bị mất,
00:01:21
rất khó khôi phục. Trong một
00:01:25
thế giới doanh nghiệp kết nối với nhau,
00:01:26
Thông tin sai lệch có thể nhanh chóng
00:01:28
đi lan truyền,
00:01:29
ảnh hưởng đến không chỉ một công ty,
00:01:31
mà là cả một ngành công nghiệp.
00:01:33
Một trong những ví dụ nổi bật nhất
00:01:35
Điều đó có thể minh họa lỗ hổng
00:01:37
Các công ty đối mặt với
00:01:39
thông tin sai lệch là của Tesla
00:01:42
vào năm 2018.
00:01:43
Tháng 8/2018, Elon Musk,
00:01:46
CEO của Tesla,
00:01:48
tweet rằng anh ấy đang xem xét
00:01:50
Loại bỏ Tesla khỏi thị trường chứng khoán
00:01:51
và rằng anh ta đã "đảm bảo tài chính".
00:01:54
Điều này dẫn đến sự gia tăng trong
00:01:57
Giá cổ phiếu Tesla tăng hơn 10%.
00:01:59
Tuy nhiên
00:02:00
sau đó hóa ra Musk
00:02:02
không có kế hoạch cụ thể hoặc
00:02:04
Kinh phí được bảo đảm cho một hoạt động như vậy.
00:02:06
SEC (Chứng khoán và Sở giao dịch
00:02:08
Ủy ban) sau đó kiện Musk vì
00:02:11
đánh lừa các nhà đầu tư.
00:02:14
Mặc dù đây không phải là một
00:02:16
Ví dụ trực tiếp về deepfake hoặc
00:02:18
Thông tin sai lệch do AI tạo ra,
00:02:19
Điều này cho thấy làm thế nào một
00:02:22
khai báo đơn giản,
00:02:23
dù đúng hay sai,
00:02:24
có thể có hậu quả
00:02:25
giá cổ phiếu,
00:02:27
danh tiếng của công ty và
00:02:30
niềm tin của nhà đầu tư.
00:02:32
Chuyển điều này sang khả năng của AI
00:02:35
tạo nội dung sai lệch,
00:02:35
Người ta có thể tưởng tượng hậu quả
00:02:37
tiềm năng nếu, ví dụ, một
00:02:39
Video giả mạo của một CEO của một
00:02:41
Công ty lớn đã được phát sóng
00:02:43
nơi anh ta sẽ thông báo sai sự thật
00:02:45
tin tức gây rối.
00:02:47
Thị trường tài chính có thể
00:02:49
Phản ứng trước khi bạn kiểm tra
00:02:51
tính xác thực của tuyên bố.
00:02:52
Ở cấp độ xã hội,
00:02:54
Hậu quả còn lớn hơn.
00:02:57
Các cuộc bầu cử có thể bị gian lận,
00:02:59
căng thẳng có thể trở nên trầm trọng hơn,
00:03:02
Gia đình có thể được chia
00:03:04
bởi những sự thật mâu thuẫn.
00:03:06
Khi thông tin trở thành
00:03:08
không thể phân biệt với thông tin sai lệch,
00:03:09
Chính cấu trúc của chúng tôi
00:03:11
Dân chủ đang được thử thách.
00:03:13
Nhưng đó không phải là tất cả sự diệt vong và u ám.
00:03:15
Có biện pháp đối phó.
00:03:17
Thưa các nhà báo,
00:03:18
các nhà nghiên cứu và công nghệ
00:03:20
Làm việc không mệt mỏi để phát hiện
00:03:23
và chống lại những hàng giả này.
00:03:24
Họ phát triển các công cụ
00:03:26
để xác định deepfake,
00:03:28
Giáo dục công chúng về
00:03:29
Làm thế nào để phát hiện các dấu hiệu
00:03:31
và cố gắng khôi phục
00:03:33
Tự tin vào thời kỳ hậu sự thật.
00:03:36
Chúng ta đang ở ngã ba đường.
00:03:38
Công nghệ đang tiến bộ và chúng tôi đang
00:03:40
Chúng ta cần tiến về phía trước với nó bằng cách
00:03:42
luôn được thông báo,
00:03:43
Luôn cảnh giác và luôn sẵn sàng
00:03:45
để phân biệt sự thật với hư cấu.

Il n’existe aucun élément correspondant à votre recherche dans cette vidéo...
Effectuez une autre recherche ou retournez au contenu !

 

00:00:04
人工智慧形狀
00:00:06
我們的世界在某種程度上
00:00:08
我們從未想像過。
00:00:10
生成式 AI 具有
00:00:12
超出了我們的預期。
00:00:14
今天,他們可以
00:00:15
創作相似的旋律
00:00:16
獻給那些偉大的音樂家,
00:00:18
00:00:20
著名記者的作風,
00:00:21
再現喚起我們的聲音
00:00:23
最喜歡的演員和歌手和
00:00:25
生成人臉和視頻,如果
00:00:27
和你想像的一樣現實
00:00:28
好萊塢電影節選。
00:00:32
曾經被降級到
00:00:33
科幻小說頁面
00:00:35
現在在我們眼前栩栩如生
00:00:37
多虧了DeepMind等應用程式,
00:00:40
GPT-4 或 Midjourney...
00:00:42
Deepfakes 是其中的應用程式之一
00:00:45
這項技術最具爭議的方面。
00:00:48
想像一下名人的視頻
00:00:51
發表爆炸性聲明。
00:00:54
除了這個說法從來沒有
00:00:56
已經製作完成。在一個我們的世界里
00:00:58
依靠我們的所見所聞,
00:01:01
其影響可能是毀滅性的。
00:01:04
公司是
00:01:06
特別脆弱。
00:01:07
一個簡單的偽造視頻可以觸發
00:01:10
一場金融危機,毀掉了歲月
00:01:13
烙印或造成嚴重破壞
00:01:15
股東和客戶。
00:01:17
但這不僅僅是
00:01:19
這一切都與錢有關。
00:01:20
信任
00:01:20
一旦迷失,
00:01:21
很難恢復。在一個
00:01:25
互聯互通的企業世界,
00:01:26
錯誤資訊可以很快
00:01:28
病毒式傳播,
00:01:29
不僅影響一家公司,
00:01:31
而是一個完整的行業。
00:01:33
最引人注目的例子之一
00:01:35
可以說明漏洞
00:01:37
公司面對
00:01:39
虛假資訊是特斯拉的
00:01:42
在這一年裡 2018.
00:01:43
2018年8月,埃隆·馬斯克(Elon Musk),
00:01:46
特斯拉首席執行官,
00:01:48
在推特上說他正在考慮
00:01:50
將特斯拉從股市中移除
00:01:51
並且他有「融資擔保」。
00:01:54
這導致了
00:01:57
特斯拉股價上漲超過10%。
00:01:59
然而
00:02:00
後來事實證明,馬斯克
00:02:02
沒有具體計劃或
00:02:04
為這種行動爭取到資金。
00:02:06
美國證券交易委員會(SEC
00:02:08
Commission)隨後起訴馬斯克
00:02:11
誤導投資者。
00:02:14
雖然這不是一個
00:02:16
deepfake的直接例子或
00:02:18
人工智慧生成的錯誤資訊,
00:02:19
這顯示了
00:02:22
簡單申報,
00:02:23
無論是真是假,
00:02:24
可能會產生影響
00:02:25
股價
00:02:27
公司的聲譽和
00:02:30
投資者信心。
00:02:32
將其轉化為人工智慧的能力
00:02:35
創建虛假內容,
00:02:35
後果可想而知
00:02:37
例如,如果
00:02:39
一家CEO的假視頻
00:02:41
大公司播出
00:02:43
他會在哪裡虛假宣佈
00:02:45
破壞性新聞。
00:02:47
金融市場可以
00:02:49
在檢查之前做出反應
00:02:51
陳述的真實性。
00:02:52
在社會層面,
00:02:54
後果甚至更大。
00:02:57
選舉可以縱,
00:02:59
緊張局勢可能會加劇,
00:03:02
家庭可以分開
00:03:04
通過相互矛盾的事實。
00:03:06
當信息成為
00:03:08
與錯誤信息無法區分,
00:03:09
我們的結構
00:03:11
民主正在經受考驗。
00:03:13
但這並不全是厄運和陰霾。
00:03:15
有對策。
00:03:17
記者
00:03:18
研究人員和技術人員
00:03:20
孜孜不倦地工作以檢測
00:03:23
並打擊這些假冒產品。
00:03:24
他們開發工具
00:03:26
識別深度偽造,
00:03:28
教育公眾
00:03:29
如何發現這些跡象
00:03:31
並嘗試恢復
00:03:33
對後真相時代的信心。
00:03:36
我們正處於十字路口。
00:03:38
技術在進步,我們是
00:03:40
我們需要通過以下方式向前邁進
00:03:42
總是被告知,
00:03:43
時刻保持警惕,時刻準備著
00:03:45
辨別真實與虛構。

Il n’existe aucun élément correspondant à votre recherche dans cette vidéo...
Effectuez une autre recherche ou retournez au contenu !

 

Rappel

Afficher