**India exige a las empresas tecnológicas aprobación previa para herramientas de IA no fiables**
En un reciente movimiento regulatorio, India ha establecido un nuevo precedente para las empresas tecnológicas que operan en su territorio. El Ministerio de Tecnologías de la Información del país emitió un aviso el pasado viernes, instando a las compañías a obtener una aprobación gubernamental antes de lanzar al público herramientas de inteligencia artificial (IA) que sean consideradas “no fiables” o que aún estén en fase de prueba. Además, se les ha pedido que estas herramientas sean etiquetadas adecuadamente para advertir a los usuarios sobre la posibilidad de obtener respuestas incorrectas.
Este anuncio se produce en un contexto global donde las naciones están compitiendo por establecer marcos regulatorios para la IA. India, en particular, ha estado reforzando sus regulaciones para las compañías de redes sociales, las cuales ven al país del sur de Asia como un mercado clave para su crecimiento.
La medida llega tras las críticas de un alto funcionario el 23 de febrero hacia la herramienta de IA Gemini de Google, después de que proporcionara una respuesta en la que se acusaba al Primer Ministro Narendra Modi de implementar políticas calificadas por algunos como “fascistas”. Google respondió rápidamente a la controversia, admitiendo que la herramienta “puede no ser siempre fiable”, especialmente en temas de actualidad y políticos.
El viceministro de TI, Rajeev Chandrasekhar, reaccionó ante la declaración de Google en la plataforma social X, enfatizando que “la seguridad y la confianza es una obligación legal de las plataformas. ‘Lo sentimos, no es fiable’ no exime de la ley”.
Además, el aviso del viernes subraya la importancia de asegurar que las herramientas de IA no “amenacen la integridad del proceso electoral”. Se espera que el partido nacionalista hindú en el poder obtenga una mayoría clara en las elecciones generales que se celebrarán este verano en India.
Las empresas tecnológicas en India deberán ahora navegar con cautela, asegurándose de que sus Herramientas de IA cumplan con los nuevos requisitos regulatorios para evitar sanciones y mantener la confianza tanto del gobierno como de los usuarios.