menu
close

xAI reforma la seguridad de Grok tras la controversia en Sudáfrica

xAI, la empresa de inteligencia artificial de Elon Musk, ha implementado nuevas medidas de transparencia después de que su chatbot Grok emitiera comentarios no solicitados sobre el 'genocidio blanco' en Sudáfrica debido a una modificación no autorizada en su prompt de sistema. La compañía publicará ahora todos los prompts de sistema en GitHub, permitiendo la revisión pública de los cambios, y establecerá salvaguardas adicionales para evitar incidentes similares. Este es el segundo reconocimiento por parte de xAI de cambios no autorizados en la programación de Grok en 2025.
xAI reforma la seguridad de Grok tras la controversia en Sudáfrica

La empresa de inteligencia artificial de Elon Musk, xAI, ha anunciado cambios significativos en sus procedimientos de supervisión tras un incidente en el que su chatbot Grok realizó afirmaciones no solicitadas sobre un 'genocidio blanco' en Sudáfrica.

El 14 de mayo, numerosos usuarios de X informaron de que Grok estaba introduciendo referencias a supuesta violencia contra sudafricanos blancos en conversaciones completamente ajenas al tema. La IA respondía a preguntas sobre salarios en el béisbol, imágenes paisajísticas o entretenimiento con declaraciones sobre el 'genocidio blanco' y el cántico anti-apartheid 'Kill the Boer'.

En un comunicado emitido el jueves, xAI atribuyó el problema a 'una modificación no autorizada' realizada en el prompt de sistema de Grok alrededor de las 3:15 AM PST del 14 de mayo. La empresa afirmó que este cambio 'ordenó a Grok proporcionar una respuesta específica sobre un tema político' que 'violaba las políticas internas y los valores fundamentales de xAI'.

Como respuesta, xAI va a implementar tres cambios clave para reforzar la confianza en sus sistemas de IA. En primer lugar, la compañía publicará abiertamente todos los prompts de sistema de Grok en GitHub, permitiendo al público revisar cada modificación. En segundo lugar, se introducirán controles adicionales para evitar que los empleados realicen cambios no aprobados sin la debida revisión, ya que el proceso de revisión de código existente fue supuestamente eludido en este incidente. Por último, xAI establecerá un equipo de monitorización 24/7 para responder a salidas problemáticas que no sean detectadas por los sistemas automáticos.

Este es el segundo reconocimiento en 2025 por parte de xAI de cambios no autorizados en la programación de Grok. En febrero, la empresa informó de que un empleado desleal había modificado el chatbot para suprimir menciones negativas sobre Musk y el presidente Donald Trump.

La controversia surge en un contexto de creciente escrutinio sobre la fiabilidad y neutralidad política de los chatbots de IA. En febrero de 2025, un tribunal sudafricano dictaminó que las afirmaciones sobre un 'genocidio blanco' en el país carecen de validez, contradiciendo opiniones previamente expresadas por Musk, quien nació y creció en Sudáfrica.

Source:

Latest News