OpenAI y Anthropic acuerdan proteger a los adolescentes
Las empresas OpenAI y Anthropic anuncian un nuevo marco de trabajo para proteger a los usuarios adolescentes en sus plataformas de inteligencia artificial. Este acuerdo, que forma parte de un compromiso más amplio con la Casa Blanca, busca establecer medidas que limiten cómo sus modelos, como ChatGPT y Claude, interactúan con los jóvenes. La iniciativa responde a la creciente preocupación sobre el impacto de la IA en los menores y su exposición a contenidos potencialmente dañinos.
El marco incluye evaluaciones de seguridad y etiquetado de contenido
El plan incluye evaluar los riesgos que sus sistemas de IA pueden plantear para los adolescentes, como la generación de contenido relacionado con autolesiones, desórdenes alimenticios o violencia. Ambas compañías se comprometen a desarrollar e implementar herramientas que etiqueten contenido sensible generado por IA. El objetivo es que los modelos puedan detectar y responder de manera segura cuando un usuario menor de edad plantee preguntas o busque información sobre temas delicados.
La medida busca fomentar un desarrollo tecnológico responsable
Este esfuerzo colaborativo representa un paso hacia autorregular la industria de la inteligencia artificial, anticipándose a posibles legislaciones más estrictas. Al establecer estos protocolos de seguridad juvenil, OpenAI y Anthropic intentan demostrar que es posible innovar de forma responsable. La efectividad de estas medidas dependerá de cómo se implementen y de la transparencia con la que las empresas informen sobre sus avances y desafíos en este ámbito.
Parece que, por una vez, competir por ser el modelo más inteligente incluye también competir por ser el más prudente.
|Agradecer cuando alguien te ayuda es de ser agradecido|