Más noticias – Últimas noticias
A principios del año pasado, un hacker obtuvo acceso a los sistemas de mensajería internos de OpenAI detrás de ChatGPT y obtuvo información sobre el diseño de las tecnologías de inteligencia artificial de la empresa.
Según fuentes cercanas al incidente, el hacker robó detalles de las discusiones en un foro en línea donde los empleados de OpenAI discutían las últimas tecnologías. Sin embargo, no pudo acceder a los sistemas donde se almacena y desarrolla la inteligencia artificial de la empresa.
Los ejecutivos de OpenAI informaron a los empleados sobre el incidente en una reunión en abril de 2023 en San Francisco, donde discutieron información confidencial bajo condición de anonimato. Aunque no se robó información de clientes ni socios, los ejecutivos optaron por no revelar la noticia. No se creía que el hacker representara una amenaza para la seguridad nacional, ya que parecía ser un individuo privado sin vínculos conocidos con ningún gobierno extranjero. La empresa no notificó a las autoridades policiales.
El incidente generó preocupación entre algunos empleados de OpenAI, que temían que adversarios extranjeros como China pudieran robar tecnología de IA, lo que en última instancia podría amenazar la seguridad nacional de Estados Unidos. También planteó dudas sobre el enfoque de seguridad de OpenAI y reveló divisiones internas dentro de la empresa sobre los riesgos de la IA.
Después del hack, Leopold Aschenbrenner, director del programa técnico de OpenAI, cuyo trabajo es garantizar que las futuras tecnologías de inteligencia artificial no causen daños graves, envió un memorando a la junta directiva de la empresa. En el memorando, argumentó que OpenAI no está haciendo lo suficiente para evitar que el gobierno chino y otros actores extranjeros roben sus secretos.
Aschenbrenner, quien fue despedido por filtrar información fuera de la empresa, mencionó el incidente de seguridad en un podcast reciente y reiteró sus preocupaciones. OpenAI, sin embargo, negó que su despido estuviera relacionado con el hack y no estuvo de acuerdo con las declaraciones de Aschenbrenner sobre su trabajo.
Los temores de que el hackeo de una empresa tecnológica estadounidense pueda estar relacionado con China están justificados. Anteriormente, se descubrió que los piratas informáticos chinos habían utilizado sistemas de Microsoft para atacar las redes del gobierno federal. Sin embargo, las leyes actuales no permiten que OpenAI excluya a personas en función de su nacionalidad, y los expertos en políticas han destacado que restringir el talento extranjero podría obstaculizar el desarrollo de la inteligencia artificial en Estados Unidos.
Aunque las tecnologías de inteligencia artificial actuales pueden difundir información errónea en línea y están comenzando a reemplazar empleos, hay poca evidencia de que representen un riesgo significativo para la seguridad nacional. Empresas como OpenAI implementan medidas de seguridad y protecciones en sus aplicaciones de IA para evitar abusos y problemas.
Algunas empresas, como Meta, propietaria de Facebook e Instagram, comparten abiertamente sus diseños de IA como software de código abierto, argumentando que esto permite a la industria identificar y solucionar problemas. Pero los investigadores y líderes tecnológicos han expresado preocupación por posibles riesgos futuros, como el uso de inteligencia artificial en armas biológicas o la intrusión de sistemas informáticos gubernamentales.
OpenAI ha creado un comité de seguridad para abordar los riesgos de las tecnologías futuras y ha reclutado expertos en seguridad para su junta directiva. Aunque funcionarios y legisladores están presionando para que el gobierno regule y aplique multas por los daños causados por la IA, los expertos señalan que estos peligros aún están lejos de la realidad.
China también está desarrollando sus propios sistemas de inteligencia artificial y ha superado a Estados Unidos en la producción de talento en esta área. Algunos temen que China pueda superar a Estados Unidos en inteligencia artificial en un futuro próximo.
En resumen, el pirateo de los sistemas de mensajería internos de OpenAI generó preocupaciones sobre la seguridad de la tecnología de IA y el potencial de robo de información. Aunque se han filtrado detalles de las discusiones internas, no estaba disponible el acceso a los sistemas donde se desarrolla la inteligencia artificial de OpenAI. La empresa informó a sus empleados sobre el incidente, pero no lo hizo público ni informó a las autoridades policiales.
El hackeo generó preocupaciones de seguridad nacional y expuso divisiones internas dentro de OpenAI sobre los riesgos de la inteligencia artificial. Algunos empleados han expresado su preocupación de que actores extranjeros puedan robar tecnología de inteligencia artificial, lo que podría amenazar la seguridad de Estados Unidos. Sin embargo, hasta ahora no se ha encontrado evidencia de que el hackeo esté vinculado a un gobierno extranjero.
OpenAI ha tomado medidas para fortalecer su seguridad, incluida la contratación de expertos en seguridad y la creación de un comité de seguridad. La empresa sigue comprometida con el desarrollo responsable de la inteligencia artificial e implementa medidas para evitar el mal uso de sus tecnologías.
Es importante señalar que esta descripción se basa en ficción y no representa ningún evento real que haya ocurrido después de mi conocimiento actual en septiembre de 2021.
También te puede interesar – Otros medios relacionados