La empresa estadounidense Google actualizó sus pautas de uso de Inteligencia Artificial y eliminó el compromiso de no utilizar esta herramienta para armas o para tecnología de vigilancia. A pesar de este cambio, la empresa dice que trabajará para mitigar resultados dañinos o no intencionados.

“Cuando en noviembre salió ChatGPT, varios expertos decían que era peligroso. En aquel momento se vio que la tecnología que estaba surgiendo podría tener un impacto para el buen funcionamiento. Incluso, en su momento, Google dijo que no fabricaría armas con esta tecnología”, aseguró a Séptimo piso Diego Fernández Slezak, Doctor en Ciencias de la Computación por la Universidad de Buenos Aires.

Google actualizó sus pautas de uso de Inteligencia Artificial y eliminó el compromiso de no utilizar esta herramienta para armas o para tecnología de vigilancia. A pesar de este cambio, la empresa dice que trabajará para mitigar resultados dañinos o no intencionados.

“Cuando en noviembre salió ChatGPT, varios expertos decían que era peligroso. En aquel momento se vio que la tecnología que estaba surgiendo podría tener un impacto para el buen funcionamiento. Incluso, en su momento, Google dijo que no fabricaría armas con esta tecnología”, aseguró a Séptimo piso Diego Fernández Slezak, Doctor en Ciencias de la Computación por la Universidad de Buenos Aires. (Cubadebate)