New Policy from Google Combats Online Disinformation

New Policy from Google Combats Online Disinformation

HOLIDAY NEWS – In an increasingly complex digital era, the threat of online abuse continues to increase. Google announced new breakthroughs in the use of artificial intelligence (AI) to quickly and effectively detect abuse on the internet. 

At the Google Responsible AI Summit in Paris, Google's VP of Trust & Safety, Laurie Richardson, highlighted the company's efforts to strengthen its security through responsible implementation of AI. 

Google now uses large language models (LLM) to identify various types of abuse, from disinformation narratives to counterfeit goods. With the ability to build and train models in record time, Google teams can respond quickly to evolving threats. 

Additionally, this technology allowed Google to train the detection system in more languages, doubling the number of languages ​​covered in just a few months. As a result, Google can more quickly and accurately protect users from dangerous content. 

In addition to detecting abuse, Google also focuses on collaboration and transparency in AI development. One of them is through collaboration with C2PA to ensure the authenticity of online content, such as determining whether a photo was taken with a camera or generated by AI. 

By providing clear context, Google wants to increase users' media literacy and help them make wiser decisions about the information they consume. 

Kebijakan Baru dari Google Berantas Disinformasi Online

HOLIDAY NEWS – Di era digital yang semakin kompleks, ancaman penyalahgunaan online terus meningkat. Google mengumumkan terobosan baru dalam penggunaan kecerdasan buatan (AI) untuk mendeteksi penyalahgunaan di internet secara cepat dan efektif.

Dalam pertemuan Google Responsible AI Summit di Paris, VP Trust & Safety Google, Laurie Richardson, menyoroti upaya perusahaan dalam memperkuat keamanannya melalui penerapan AI yang bertanggung jawab.

Google kini menggunakan model bahasa besar (LLM) untuk mengidentifikasi berbagai jenis penyalahgunaan, mulai dari narasi disinformasi hingga barang palsu. Dengan kemampuan membangun dan melatih model dalam waktu singkat, tim Google dapat merespons dengan cepat terhadap ancaman yang terus berkembang. 

Selain itu, teknologi ini memungkinkan Google untuk melatih sistem deteksi dalam lebih banyak bahasa, menggandakan jumlah bahasa yang tercakup hanya dalam beberapa bulan. Hasilnya, Google bisa lebih cepat dan akurat dalam melindungi pengguna dari konten berbahaya.

Selain mendeteksi penyalahgunaan, Google juga fokus pada kolaborasi dan transparansi dalam pengembangan AI. Salah satunya melalui kerja sama dengan C2PA untuk memastikan keaslian konten online, seperti memastikan apakah sebuah foto diambil dengan kamera atau dihasilkan oleh AI.

Dengan memberikan konteks yang jelas, Google ingin meningkatkan literasi media pengguna dan membantu mereka membuat keputusan yang lebih bijak terkait informasi yang mereka konsumsi.

Post a Comment

Please Select Embedded Mode To Show The Comment System.*

Previous Post Next Post