Here are Google's efforts to build responsible AI
HOLIDAY NEWS - This week, at the Google Responsible AI Summit in Paris, Google VP Trust & Safety Laurie Richardson revealed some of Google's efforts to maximize the benefits and minimize the risks of using artificial intelligence (AI) technology.
First, the Trust & Google Team has conducted training, and red-teaming techniques to ensure that the GenAI products released are built responsibly. Google is also committed to sharing our approach more widely.
Second, Google's Trust & Safety team is also using AI to improve how the company protects users online. With AI, they can identify infringing content at scale.
Additionally, by using LLM the search giant was able to quickly build and train models in a matter of days. For example, with an LLM, they can broaden the scope of harassment types, contexts, and language in ways never before discovered.
Finally, to handle AI-generated content, Google regularly collaborates with other industries and ecosystems to find the best solutions.
Earlier this week, Google brought together researchers and students to interact with their safety experts to discuss the risks and opportunities in the AI era.
SEE ALSO:
To support an ecosystem that produces impactful research with real-world applications, Google also doubled the number of Google Academic Research Awards recipients this year to expand investment in Trust & Safety research solutions.
“We are committed to implementing AI responsibly — from using AI to harden our platform against abuse to developing tools,” Laurie said.
HOLIDAY NEWS - Minggu ini, di Google Responsible AI Summit di Paris, VP Trust & Safety Google, Laurie Richardson mengungkapkan beberapa upaya Google dalam memaksimalkan manfaat dan meminimalkan risiko penggunaan teknologi kecerdasan buatan (AI).
Pertama, Tim Kepercayaan & Google telah melakukan pelatihan, dan teknik red-teaming untuk memastikan bahwa produk GenAI yang dirilis dibangun dengan bertanggung jawab. Google juga berkomitmen untuk membagikan pendekatan kami secara lebih luas.
Kedua, tim Google di Trust & Safety juga menggunakan AI untuk meningkatkan cara perusahaan melindungi pengguna secara daring. Dengan AI, mereka dapat mengidentifikasi konten yang melanggar dalam skala besar.
Selain itu, dengan menggunakan LLM raksasa penelusuran itu mampu membangun dan melatih model dengan cepat dalam hitungan hari. Misalnya, dengan LLM, mereka dapat memperluas cakupan jenis pelecehan, konteks, dan bahasa dengan cara yang belum pernah ditemukan sebelumnya.
Terakhir, untuk menangani konten yang dihasilkan AI, Google rutin berkolaborasi dengan industri dan ekosistem lain untuk menemukan solusi yang terbaik.
Awal minggu ini, Google mempertemukan para peneliti dan mahasiswa untuk berinteraksi dengan para ahli keselamatan mereka guna membahas risiko dan peluang di era AI.
SEE ALSO:
Untuk mendukung ekosistem yang menghasilkan penelitian yang berdampak dengan aplikasi di dunia nyata, Google juga menggandakan jumlah penerima Google Academic Research Awards tahun ini untuk mengembangkan investasi dalam solusi penelitian Kepercayaan & Keselamatan.
“Kami berkomitmen untuk menerapkan AI secara bertanggung jawab — mulai dari menggunakan AI untuk memperkuat platform kami terhadap penyalahgunaan hingga mengembangkan alat,” kata Laurie.