La empresa decidió dar de baja su herramienta para diferenciar escritos realizados con IA por su falta de fiabilidad. En su lugar, se centrará en desarrollar mecanismos para identificar audio e imagen generado artificialmente.
En una sorprendente decisión, OpenAI ha cerrado su "AI classifier", la herramienta que servía para diferenciar la escritura humana de la generada por inteligencia artificial (IA) debido a "su baja tasa de precisión", según lo comunicado por la compañía, que también anunció estar trabajando para "incorporar comentarios e investigando técnicas de procedencia más efectivas para el texto".
La compañía ha admitido que el clasificador nunca fue muy efectivo para detectar el texto generado por IA y advirtió que podía generar falsos positivos, etiquetando erróneamente trabajos escritos por humanos como generado por IA.
OpenAI se embarcará ahora en el desarrollo e implementación de mecanismos que permitan a los usuarios identificar si contenido sonoro y visual ha sido generado por IA. Aunque aún no se ha dado a conocer cómo funcionarán estas nuevas funciones.
Tras el exitoso lanzamiento de ChatGPT de OpenAI, esta herramienta se convirtió en una de las aplicaciones de crecimiento más rápido jamás vistas, lo que llevó a muchas personas a intentar comprender la tecnología detrás. Varios sectores levantaron la voz de alarma en torno al texto y arte generados por IA, especialmente los educadores, quienes temían que los estudiantes dejaran de estudiar y simplemente permitieran que ChatGPT escribiera sus tareas. En Nueva York, algunas escuelas incluso prohibieron el acceso al chatbot en sus instalaciones debido a preocupaciones sobre precisión, seguridad y trampas académicas.
La desinformación a través de la IA también ha sido una preocupación, ya que los estudios han demostrado que el texto generado por IA, como tweets, puede ser más convincente que aquel escrito por humanos. Los gobiernos aún no han encontrado la forma de controlar adecuadamente la IA y, hasta ahora, han dejado que los grupos y organizaciones individuales establezcan sus propias reglas y desarrollen medidas de protección para hacer frente a la avalancha de texto generado por computadora. Por el momento, parece que nadie, ni siquiera la compañía que ayudó a impulsar la locura de la IA generativa en primer lugar, tiene respuestas sobre cómo manejar todo esto. Aunque algunas personas pueden ser atrapadas, cada vez será más difícil
Además, recientemente, OpenAI perdió a su líder de confianza y seguridad en un momento en que la Comisión Federal de Comercio está investigando a OpenAI para comprender cómo verifica la información y los datos. OpenAI se negó a hacer comentarios más allá de su publicación en el blog.
En resumen, OpenAI ha decidido cerrar su herramienta de clasificación de IA debido a su baja precisión en la detección de texto generado por IA. En su lugar, se centrarán en desarrollar mecanismos para identificar contenido generado por IA en formatos auditivos o visuales. La incertidumbre en torno a la regulación de la IA y la lucha contra la desinformación persisten, dejando la responsabilidad en manos de diferentes grupos y organizaciones. Aunque la tarea de distinguir entre el trabajo humano y el de la IA es cada vez más difícil, la investigación en técnicas de procedencia podría ofrecer soluciones más efectivas en el futuro.
Comentários