Google Brain

proyecto de investigación de aprendizaje profundo

Google Brain es un equipo de investigación de inteligencia artificial de aprendizaje profundo bajo el paraguas de Google AI, una división de investigación de Google dedicada a la inteligencia artificial. Formado en 2011, Google Brain combina la investigación abierta de aprendizaje automático con sistemas de información y recursos informáticos a gran escala.[1]​ El equipo ha creado herramientas como TensorFlow, que permiten que el público utilice las redes neuronales, con múltiples proyectos internos de investigación de IA.[2]​ El equipo tiene como objetivo crear oportunidades de investigación en el aprendizaje automático y el procesamiento del lenguaje natural.[2]​ El equipo fue fusionado con la antigua empresa hermana de Google, DeepMind, para formar Google DeepMind en abril de 2023.[3]

Google Brain
Tipo corporate research group
Campo aprendizaje automático y aprendizaje profundo
Fundador Jeff Dean
Andrew Ng
Greg Corrado
Disolución abril de 2023

Historia

editar

El proyecto Google Brain comenzó en 2011 como una colaboración de investigación a tiempo parcial entre el compañero de Google Jeff Dean, el investigador de Google Greg Corrado y el profesor de la Universidad de Stanford Andrew Ng.[4]​ Ng había estado interesado en las técnicas de aprendizaje profundo utilizadas para resolver el problema de la inteligencia artificial desde 2006, y en 2011 comenzó a colaborar con Dean y Corrado para construir un sistema de software de aprendizaje profundo a gran escala, DistBelief,[5]​ además de una infraestructura de computación en la nube de Google. Google Brain comenzó como un proyecto de Google X y tuvo tanto éxito que volvió a convertirse en Google: Astro Teller ha dicho que Google Brain pagó el costo total de Google X.[6]

En junio de 2012, el New York Times informó que un grupo de 16 000 procesadores en 1000 computadoras dedicadas a imitar algunos aspectos de la actividad del cerebro humano se había entrenado con éxito para reconocer un gato basándose en 10 millones de imágenes digitales tomadas de videos de YouTube.[4]​ La historia también fue cubierta por National Public Radio.[7]

En marzo de 2013, Google contrató a Geoffrey Hinton, un investigador líder en el campo del aprendizaje profundo, y adquirió la empresa DNNResearch Inc. dirigida por Geoffrey Hinton . Hinton dijo que dividiría su tiempo futuro entre su investigación universitaria y su trabajo en Google.

Equipo y ubicación

editar

Google Brain fue creado inicialmente por el becario de Google Jeff Dean y el profesor invitado de Stanford Andrew Ng. En 2014, el equipo incluía a Jeff Dean, Quoc Le, Ilya Sutskever, Alex Krizhevsky, Samy Bengio y Vincent Vanhoucke. En 2017, los miembros del equipo incluyen a Anelia Angelova, Samy Bengio, Greg Corrado, George Dahl, Michael Isard, Anjuli Kannan, Hugo Larochelle, Chris Olah, Salih Edneer, Benoit Steiner, Vincent Vanhoucke, Vijay Vasudevan y Fernanda Viegas.[8]​ Chris Lattner, quien creó el lenguaje de programación Swift (lenguaje de programación) de Apple y luego dirigió el equipo de autonomía de Tesla durante seis meses, se unió al equipo de Google Brain en agosto de 2017.[9]​ Lattner dejó el equipo en enero de 2020 y se unió a SiFive.[10]

En 2021, Google Brain está dirigido por Jeff Dean, Geoffrey Hinton y Zoubin Ghahramani. Otros miembros incluyen a Katherine Heller, Pi-Chuan Chang, Ian Simon, Jean-Philippe Vert, Nevena Lazic, Anelia Angelova, Lukasz Kaiser, Carrie Jun Cai, Eric Breck, Ruoming Pang, Carlos Riquelme, Hugo Larochelle, David Ha.[8]​ Samy Bengio dejó el equipo en abril de 2021[11]​ y Zoubin Ghahramani asumió sus responsabilidades.

Google Research incluye Google Brain y tiene su sede en Mountain View, California. También tiene grupos satélite en Acra, Ámsterdam, Atlanta, Beijing, Berlín, Cambridge (Massachusetts), Israel, Los Ángeles, Londres, Montreal, Múnich, Nueva York, París, Pittsburgh, Princeton, San Francisco, Seattle, Tokio, Toronto y Zúrich.[12]

Proyectos

editar

Sistema de cifrado ideado por inteligencia artificial

editar

En octubre de 2016, Google Brain diseñó un experimento para determinar que las redes neuronales son capaces de aprender cifrado simétrico seguro.[13]​ En este experimento se crearon tres redes neuronales: Alice, Bob y Eve.[14]​ Siguiendo la idea de una red antagónica generativa (GAN), el objetivo del experimento era que Alice enviara un mensaje cifrado a Bob y que Bob pudiera descifrarlo, pero que el adversario, Eve, no pudiera.[14]​ Alice y Bob mantuvieron una ventaja sobre Eve, ya que compartían una clave utilizada para el cifrado y descifrado.[13]​ Al hacerlo, Google Brain demostró la capacidad de las redes neuronales para aprender cifrado seguro.[13]

Mejora de la imagen

editar

En febrero de 2017, Google Brain determinó un método probabilístico para convertir imágenes con 8x8 de resolución a una resolución de 32x32.[15][16]​ El método se basó en un modelo probabilístico ya existente llamado pixelCNN para generar traducciones de píxeles.[17][18]

El software propuesto utiliza dos redes neuronales para hacer aproximaciones para la composición de píxeles de las imágenes traducidas.[16][19]​ La primera red, conocida como "red de acondicionamiento", reduce el tamaño de las imágenes de alta resolución a 8x8 e intenta crear asignaciones de la imagen original de 8x8 a estas de mayor resolución.[16]​ La otra red, conocida como "red anterior", utiliza las asignaciones de la red anterior para agregar más detalles a la imagen original.[16]​ La imagen traducida resultante no es la misma imagen en mayor resolución, sino una estimación de resolución de 32x32 basada en otras imágenes de alta resolución existentes.[16]​ Los resultados de Google Brain indican la posibilidad de que las redes neuronales mejoren las imágenes.[20]

Traductor de Google

editar

El equipo de Google Brain contribuyó al proyecto Google Translate empleando un nuevo sistema de aprendizaje profundo que combina redes neuronales artificiales con amplias bases de datos de textos multilingües.[21]​ En septiembre de 2016, se lanzó Google Neural Machine Translation (GNMT), un marco de aprendizaje de extremo a extremo, capaz de aprender de una gran cantidad de ejemplos.[21]​ Anteriormente, el enfoque de traducción automática basada en frases (PBMT) de Google Translate analizaba estadísticamente palabra por palabra e intentaba hacer coincidir las palabras correspondientes en otros idiomas sin tener en cuenta las frases circundantes en la oración.[22]​ Pero en lugar de elegir un reemplazo para cada palabra individual en el idioma deseado, GNMT evalúa segmentos de palabras en el contexto del resto de la oración para elegir reemplazos más precisos.[2]​ En comparación con los modelos PBMT más antiguos, el modelo GNMT obtuvo una mejora del 24 % en la similitud con la traducción humana, con una reducción del 60 % en los errores.[2][21]​ La GNMT también ha mostrado una mejora significativa en traducciones notoriamente difíciles, como del chino al inglés.[21]

Si bien la introducción de la GNMT ha aumentado la calidad de las traducciones de Google Translate para los idiomas piloto, fue muy difícil crear dichas mejoras para todos sus 103 idiomas. Al abordar este problema, el equipo de Google Brain pudo desarrollar un sistema GNMT multilingüe, que amplió el anterior al permitir traducciones entre varios idiomas. Además, permite Zero-Shot Translations, que son traducciones entre dos idiomas que el sistema nunca antes había visto explícitamente.[23]​ Google anunció que Google Translate ahora también puede traducir sin transcribir, utilizando redes neuronales. Esto significa que es posible traducir el habla en un idioma directamente a texto en otro idioma, sin transcribirlo primero a texto. Según los investigadores de Google Brain, este paso intermedio se puede evitar utilizando redes neuronales. Para que el sistema aprendiera esto, lo expusieron a muchas horas de audio en español junto con el texto en inglés correspondiente. Las diferentes capas de redes neuronales, replicando el cerebro humano, pudieron vincular las partes correspondientes y posteriormente manipular la forma de onda de audio hasta que se transformó en texto en inglés.[24]​ Otro inconveniente del modelo GNMT es que hace que el tiempo de traducción aumente exponencialmente con el número de palabras de la oración.[2]​ Esto hizo que Google Brain agregara 2000 procesadores más para garantizar que el nuevo proceso de traducción siguiera siendo rápido y confiable.[22]

Robótica

editar

Con el objetivo de mejorar los algoritmos de control de la robótica tradicional donde las nuevas habilidades de un robot deben programarse a mano, los investigadores de robótica de Google Brain están desarrollando técnicas de aprendizaje automático para permitir que los robots aprendan nuevas habilidades por sí mismos.[25]​ También intentan desarrollar formas de compartir información entre robots para que puedan aprender unos de otros durante su proceso de aprendizaje, también conocido como robótica en la nube.[26]​ Como resultado, Google lanzó Google Cloud Robotics Platform para desarrolladores en 2019, un esfuerzo por combinar robótica, IA y la nube para permitir una automatización robótica eficiente a través de robots colaborativos conectados a la nube.[26]

La investigación de robótica en Google Brain se ha centrado principalmente en mejorar y aplicar algoritmos de aprendizaje profundo para permitir que los robots completen tareas aprendiendo de la experiencia, la simulación, las demostraciones humanas o las representaciones visuales.[27][28][29][30]​ Por ejemplo, los investigadores de Google Brain demostraron que los robots pueden aprender a recoger y lanzar objetos rígidos en cajas seleccionadas al experimentar en un entorno sin estar preprogramados para hacerlo.[27]​ En otra investigación, los investigadores entrenaron a los robots para que aprendieran comportamientos como verter líquido de una taza; los robots aprendieron de videos de demostraciones humanas grabadas desde múltiples puntos de vista.[29]

Los investigadores de Google Brain han colaborado con otras empresas e instituciones académicas en la investigación de la robótica. En 2016, Google Brain colaboró con investigadores de X Development en una investigación sobre el aprendizaje de la coordinación mano-ojo para el agarre robótico.[31]​ Su método permitió el control de robots en tiempo real para agarrar objetos nuevos con autocorrección.[31]​ En 2020, investigadores de Google Brain, Intel AI Lab y UC Berkeley crearon un modelo de inteligencia artificial para que los robots aprendan tareas relacionadas con la cirugía, como suturar, a partir del entrenamiento con videos de cirugía.[30]

Reconocimiento de orador interactivo con aprendizaje por refuerzo

editar

En 2020, Google Brain y la Universidad de Lille I presentaron un modelo para el reconocimiento automático de hablantes al que llamaron Interactive Speaker Recognition. El módulo ISR reconoce a un hablante de una lista dada de hablantes solo solicitando algunas palabras específicas del usuario. El modelo se puede modificar para elegir segmentos de voz en el contexto del entrenamiento de texto a voz. También puede evitar generadores de voz maliciosos para proteger los datos.[32]

TensorFlow

editar

TensorFlow es una biblioteca de software de código abierto con tecnología de Google Brain que permite que cualquier persona utilice el aprendizaje automático al proporcionar las herramientas para entrenar su propia red neuronal.[2]​ Los agricultores han utilizado la herramienta para reducir la cantidad de trabajo manual necesario para clasificar su producción, entrenándola con un conjunto de datos de imágenes clasificadas por humanos.[2]

Magenta

editar

Magenta es un proyecto que utiliza Google Brain para crear nueva información en forma de arte y música en lugar de clasificar los datos existentes.[2]TensorFlow se actualizó con un conjunto de herramientas para que los usuarios guíen la red neuronal para crear imágenes y música.[2]​ Sin embargo, el equipo de la Universidad Estatal de Valdosta encontró que la Inteligencia artificial lucha por replicar perfectamente la intención humana en el arte, de manera similar a los problemas que enfrenta en la traducción.[2]

Aplicaciones médicas

editar

Las capacidades de clasificación de imágenes de Google Brain se han utilizado para ayudar a detectar ciertas condiciones médicas al buscar patrones que los médicos humanos pueden no notar para proporcionar un diagnóstico más temprano.[2]​ Durante la detección del cáncer de mama, se descubrió que este método tiene una cuarta parte de la tasa de falsos positivos de los patólogos humanos, que requieren más tiempo para revisar cada foto y no pueden concentrarse por completo en esta tarea. Debido al entrenamiento muy específico de la red neuronal para una sola tarea, no puede identificar otras afecciones presentes en una foto que un humano podría detectar fácilmente.[2]

Otros productos de Google

editar

La tecnología de los proyectos Google Brain se utiliza actualmente en varios otros productos de Google, como el sistema de reconocimiento del habla del sistema operativo Android, la búsqueda de fotos para Google Photos, la respuesta inteligente[33]​ en Gmail y las recomendaciones de videos en YouTube.[34][35][36]

Recepción

editar

Google Brain ha recibido cobertura en Wired Magazine, National Public Radio,[7]​ y Big Think.[37]​ Estos artículos contienen entrevistas con miembros clave del equipo, Ray Kurzweil y Andrew Ng, y se centran en explicaciones de los objetivos y aplicaciones del proyecto.[38][7][37]

Controversia

editar

En diciembre de 2020, el especialista en ética de la IA, Timnit Gebru, dejó Google.[39]​ Si bien se discute la naturaleza exacta de su renuncia o de su despido, la causa de su partida fue su negativa a retractarse de un artículo titulado "Sobre los peligros de los loros estocásticos: ¿Pueden los modelos de lenguaje ser demasiado grandes?"[39]​ Este documento exploró los riesgos potenciales del crecimiento de la IA como Google Brain, incluido el impacto ambiental, los sesgos en los datos de entrenamiento y la capacidad de engañar al público.[39][40]​ La solicitud de retractación del documento fue realizada por Megan Kacholia, vicepresidenta de Google Brain.[41]​ A partir de abril de 2021, casi 7000 empleados actuales o anteriores de Google y simpatizantes de la industria firmaron una carta abierta acusando a Google de "censura de investigación" y condenando el trato de Gebru en la empresa.[42]

En febrero de 2021, Google despidió a una de las líderes del equipo de ética de IA de la empresa, Margaret Mitchell.[41]​ La declaración de la empresa alegaba que Mitchell había violado la política de la empresa al usar herramientas automatizadas para encontrar apoyo para Gebru.[41]​ En el mismo mes, los ingenieros fuera del equipo de ética comenzaron a renunciar, citando el despido “injusto” de Gebru como la razón.[43]​ En abril de 2021, el cofundador de Google Brain, Samy Bengio, anunció su renuncia a la empresa.[11]​ A pesar de ser el gerente de Gebru, Bengio no fue notificado antes de su despido y publicó en línea en apoyo tanto a ella como a Mitchell.[11]​ Si bien el anuncio de Bengio se centró en el crecimiento personal como motivo para irse, fuentes anónimas indicaron a Reuters que la agitación dentro del equipo de ética de la IA influyó en sus consideraciones.[11]

Véase también

editar

Referencias

editar
  1. «What is Google Brain?». GeeksforGeeks (en inglés estadounidense). 6 de febrero de 2020. Consultado el 9 de abril de 2021. 
  2. a b c d e f g h i j k l Helms, Mallory; Ault, Shaun V.; Mao, Guifen; Wang, Jin (9 de marzo de 2018). «An Overview of Google Brain and Its Applications». Proceedings of the 2018 International Conference on Big Data and Education. ICBDE '18 (Honolulu, HI, USA: Association for Computing Machinery): 72-75. ISBN 978-1-4503-6358-7. doi:10.1145/3206157.3206175. 
  3. «Announcing Google DeepMind». DeepMind (en inglés). 20 de mayo de 2023. Consultado el 16 de mayo de 2023. 
  4. a b Markoff, John (25 de junio de 2012). «How Many Computers to Identify a Cat? 16,000». The New York Times. Consultado el 11 de febrero de 2014. 
  5. Jeffrey Dean (December 2012). «Large Scale Distributed Deep Networks». Consultado el 25 de octubre de 2015. 
  6. Conor Dougherty (16 de febrero de 2015). «Astro Teller, Google's 'Captain of Moonshots,' on Making Profits at Google X». Consultado el 25 de octubre de 2015. 
  7. a b c «A Massive Google Network Learns To Identify — Cats». National Public Radio. 26 de junio de 2012. Consultado el 11 de febrero de 2014. 
  8. a b «Brain Team – Google Research». Google Research (en inglés). Consultado el 8 de abril de 2021. 
  9. Etherington, Darrell (Aug 14, 2017). «Swift creator Chris Lattner joins Google Brain after Tesla Autopilot stint». Consultado el 11 de octubre de 2017. 
  10. «Former Google and Tesla Engineer Chris Lattner to Lead SiFive Platform Engineering Team». www.businesswire.com (en inglés). 27 de enero de 2020. Consultado el 9 de abril de 2021. 
  11. a b c d Dave, Jeffrey Dastin, Paresh (7 de abril de 2021). «Google AI scientist Bengio resigns after colleagues' firings: email» (en inglés). Consultado el 8 de abril de 2021. 
  12. «Build for Everyone - Google Careers». careers.google.com (en inglés). Consultado el 8 de abril de 2021. 
  13. a b c Zhu, Y.; Vargas, D. V.; Sakurai, K. (November 2018). «Neural Cryptography Based on the Topology Evolving Neural Networks». 2018 Sixth International Symposium on Computing and Networking Workshops (CANDARW): 472-478. ISBN 978-1-5386-9184-7. doi:10.1109/CANDARW.2018.00091. 
  14. a b Abadi, Martín; Andersen, David G. (2016). Learning to Protect Communications with Adversarial Neural Cryptography. Bibcode:2016arXiv161006918A. arXiv:1610.06918. 
  15. Dahl, Ryan; Norouzi, Mohammad; Shlens, Jonathon (2017). Pixel Recursive Super Resolution. Bibcode:2017arXiv170200783D. arXiv:1702.00783. 
  16. a b c d e «Google Brain super-resolution image tech makes "zoom, enhance!" real». arstechnica.co.uk. 7 de febrero de 2017. Consultado el 15 de mayo de 2017. 
  17. Bulat, Adrian; Yang, Jing; Tzimiropoulos, Georgios (2018), «To Learn Image Super-Resolution, Use a GAN to Learn How to Do Image Degradation First», Computer Vision – ECCV 2018 (Cham: Springer International Publishing): 187-202, ISBN 978-3-030-01230-4, doi:10.1007/978-3-030-01231-1_12, consultado el 9 de abril de 2021 .
  18. Oord, Aaron Van; Kalchbrenner, Nal; Kavukcuoglu, Koray (11 de junio de 2016). «Pixel Recurrent Neural Networks». International Conference on Machine Learning (en inglés) (PMLR): 1747-1756. arXiv:1601.06759. 
  19. «Google uses AI to sharpen low-res images». engadget.com. Consultado el 15 de mayo de 2017. 
  20. «Google just made 'zoom and enhance' a reality -- kinda». cnet.com. Consultado el 15 de mayo de 2017. 
  21. a b c d Castelvecchi, Davide (2016). «Deep learning boosts Google Translate tool». Nature News (en inglés). doi:10.1038/nature.2016.20696. 
  22. a b Lewis-Kraus, Gideon (14 de diciembre de 2016). «The Great A.I. Awakening» (en inglés estadounidense). ISSN 0362-4331. Consultado el 8 de abril de 2021. 
  23. Johnson, Melvin; Schuster, Mike; Le, Quoc V.; Krikun, Maxim; Wu, Yonghui; Chen, Zhifeng; Thorat, Nikhil; Viégas, Fernanda et al. (1 de octubre de 2017). «Google's Multilingual Neural Machine Translation System: Enabling Zero-Shot Translation». Transactions of the Association for Computational Linguistics 5: 339-351. ISSN 2307-387X. doi:10.1162/tacl_a_00065. 
  24. Reynolds, Matt. «Google uses neural networks to translate without transcribing». New Scientist. Consultado el 15 de mayo de 2017. 
  25. Metz, Cade (26 de marzo de 2019). «Inside Google's Rebooted Robotics Program» (en inglés estadounidense). ISSN 0362-4331. Consultado el 8 de abril de 2021. 
  26. a b «Google Cloud Robotics Platform coming to developers in 2019». The Robot Report (en inglés estadounidense). 24 de octubre de 2018. Consultado el 8 de abril de 2021. 
  27. a b Zeng, A.; Song, S.; Lee, J.; Rodriguez, A.; Funkhouser, T. (August 2020). «TossingBot: Learning to Throw Arbitrary Objects With Residual Physics». IEEE Transactions on Robotics 36 (4): 1307-1319. ISSN 1941-0468. doi:10.1109/TRO.2020.2988642. 
  28. Gu, S.; Holly, E.; Lillicrap, T.; Levine, S. (May 2017). «Deep reinforcement learning for robotic manipulation with asynchronous off-policy updates». 2017 IEEE International Conference on Robotics and Automation (ICRA): 3389-3396. ISBN 978-1-5090-4633-1. arXiv:1610.00633. doi:10.1109/ICRA.2017.7989385. 
  29. a b Sermanet, P.; Lynch, C.; Chebotar, Y.; Hsu, J.; Jang, E.; Schaal, S.; Levine, S.; Brain, G. (May 2018). «Time-Contrastive Networks: Self-Supervised Learning from Video». 2018 IEEE International Conference on Robotics and Automation (ICRA): 1134-1141. ISBN 978-1-5386-3081-5. arXiv:1704.06888. doi:10.1109/ICRA.2018.8462891. 
  30. a b Tanwani, A. K.; Sermanet, P.; Yan, A.; Anand, R.; Phielipp, M.; Goldberg, K. (May 2020). «Motion2Vec: Semi-Supervised Representation Learning from Surgical Videos». 2020 IEEE International Conference on Robotics and Automation (ICRA): 2174-2181. ISBN 978-1-7281-7395-5. arXiv:2006.00545. doi:10.1109/ICRA40945.2020.9197324. 
  31. a b Levine, Sergey; Pastor, Peter; Krizhevsky, Alex; Ibarz, Julian; Quillen, Deirdre (1 de abril de 2018). «Learning hand-eye coordination for robotic grasping with deep learning and large-scale data collection». The International Journal of Robotics Research (en inglés) 37 (4–5): 421-436. ISSN 0278-3649. doi:10.1177/0278364917710318. 
  32. Seurin, Mathieu; Strub, Florian; Preux, Philippe; Pietquin, Olivier (25 de octubre de 2020). «A Machine of Few Words: Interactive Speaker Recognition with Reinforcement Learning». Interspeech 2020 (ISCA: ISCA): 4323-4327. arXiv:2008.03127. doi:10.21437/interspeech.2020-2892. 
  33. «Save time with Smart Reply in Gmail». Google (en inglés estadounidense). 17 de mayo de 2017. Consultado el 10 de enero de 2022. 
  34. «How Google Retooled Android With Help From Your Brain» (en inglés estadounidense). ISSN 1059-1028. Consultado el 8 de abril de 2021. 
  35. «Google Open-Sources The Machine Learning Tech Behind Google Photos Search, Smart Reply And More». TechCrunch (en inglés estadounidense). Archivado desde el original el 12 de mayo de 2021. Consultado el 8 de abril de 2021. 
  36. «This Is Google's Plan to Save YouTube». Time. 18 de mayo de 2015. 
  37. a b «Ray Kurzweil and the Brains Behind the Google Brain». Big Think. 8 de diciembre de 2013. Consultado el 11 de febrero de 2014. 
  38. Error en la cita: Etiqueta <ref> no válida; no se ha definido el contenido de las referencias llamadas wired-kurzweil
  39. a b c «We read the paper that forced Timnit Gebru out of Google. Here's what it says.». MIT Technology Review (en inglés). Consultado el 8 de abril de 2021. 
  40. Bender, Emily M.; Gebru, Timnit; McMillan-Major, Angelina; Shmitchell, Shmargaret (3 de marzo de 2021). «On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜». Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (en inglés) (Virtual Event Canada: ACM): 610-623. ISBN 978-1-4503-8309-7. doi:10.1145/3442188.3445922. 
  41. a b c Schiffer, Zoe (19 de febrero de 2021). «Google fires second AI ethics researcher following internal investigation». The Verge (en inglés). Consultado el 8 de abril de 2021. 
  42. Change, Google Walkout For Real (15 de diciembre de 2020). «Standing with Dr. Timnit Gebru — #ISupportTimnit #BelieveBlackWomen». Medium (en inglés). Consultado el 8 de abril de 2021. 
  43. Dave, Jeffrey Dastin, Paresh (4 de febrero de 2021). «Two Google engineers resign over firing of AI ethics researcher Timnit Gebru» (en inglés). Consultado el 8 de abril de 2021. 

Enlaces externos

editar
pFad - Phonifier reborn

Pfad - The Proxy pFad of © 2024 Garber Painting. All rights reserved.

Note: This service is not intended for secure transactions such as banking, social media, email, or purchasing. Use at your own risk. We assume no liability whatsoever for broken pages.


Alternative Proxies:

Alternative Proxy

pFad Proxy

pFad v3 Proxy

pFad v4 Proxy