Como la inteligencia artificial poco a poco se ha abierto campo en las innovaciones en la actualidad me pareció propicio mencionar en este foro los avances que se han logrado obtener con la IA como herramienta para agilizar aún más las actividades diarias de las personas, y en este caso ser utilizada para mejorar la seguridad en los sistemas y así bridar garantía a los usuarios que interactúen con ciertos programas o quieran desarrollar nuevos, me parece interesante que se quiera enfatizar en la seguridad cibernética de las personas.
No es nuevo el caso de que, así como hay personas que aprenden a crear grandes innovaciones tecnológicas hay de aquellos que se educan para entrometerse en estos y estafar o robar, es por esta razón que considero tan importante el hecho de que se quiera invertir y proteger cada vez más los datos y activos virtuales de los usuarios…la IA aún está en sus inicios, pero puede llegar a ser muy útil para este campo .
Fuente:
https://es.cointelegraph.com/news/scientists-developed-artificial-intelligence-ai-monitoring-agent-detect-stop-harmful-outputsEn este link se expone uno de esos intentos por aumentar dicha seguridad, donde científico provenientes de “la empresa de inteligencia artificial (IA) AutoGPT, la Universidad Northeastern y Microsoft Research ” se unieron para generar un controlador a base de IA con la intención de que este pueda detectar y evitar que “ outpusts peligrosos” se ejecuten.
En el artículo describen a este proyecto de la siguiente manera:
Las acciones de los agentes son auditadas por un monitor sensible al contexto que impone un límite de seguridad estricto para detener una prueba insegura, con un comportamiento sospechoso clasificado y registrado para ser examinado por humanos
¿Qué opinan sobre este proyecto
?