Ética en retirada: la carrera tecnológica que está redefiniendo la IA

Desde que apareció ChatGPT, a finales de 2022, entré de lleno a usarlo y a capacitarme en inteligencia artificial. En esos primeros tiempos, algo me marcó mucho: escuchar que el futuro de la IA no necesitaría solo ingenieros, sino también filósofos. Esa idea me dio esperanza, porque sugería que el centro del debate no estaría solo en lo que la tecnología puede hacer, sino también en la manera correcta y beneficiosa en que debe implementarse. Esa preocupación no fue marginal. En 2023, Sundar Pichai dijo públicamente que el desarrollo de la IA debía incluir no solo ingenieros, sino también científicos sociales, eticistas y filósofos, y que estas decisiones no debían quedar solo en manos de una empresa.

Con el paso del tiempo, siento que esa conversación se ha ido apagando. Hoy, gran parte del debate público y empresarial sobre inteligencia artificial parece estar dominado por la velocidad, la eficiencia, la cantidad de funciones, la reducción de costos y la competencia entre empresas y países. Más que una discusión sobre el bien común, muchas veces parece una carrera por ver quién tiene la inteligencia artificial más potente, más rápida y más útil desde el punto de vista estratégico.

Eso es preocupante. No porque la innovación sea mala, sino porque la ética, la moral y la regulación del uso de la IA deberían ocupar un lugar central. Si esta tecnología va a influir en la educación, el trabajo, la política, la seguridad e incluso en decisiones militares, entonces no basta con medirla por su rendimiento. También hay que preguntarse quién la controla, con qué límites y en beneficio de quién.

Hace unos días surgió una noticia que volvió a poner a la inteligencia artificial en el centro del debate mundial. Anthropic, que mantiene contratos con el gobierno de los Estados Unidos, hizo pública una postura clara: no aceptar el uso de su IA para vigilancia masiva doméstica ni para sistemas de armas totalmente autónomas. Reuters informó después que, tras meses de tensiones por esas restricciones, el Pentágono la declaró un “riesgo para la cadena de suministro” y Trump ordenó a las agencias federales dejar de trabajar con la empresa. En paralelo, OpenAI profundizó sus acuerdos con el sector defensa, incluido un contrato con un techo de US$200 millones y un despliegue en redes clasificadas.

Lo preocupante es que la inteligencia artificial no es una herramienta cualquiera. No estamos hablando solo de aplicaciones prácticas o de productividad. Estamos hablando de una tecnología que puede influir en decisiones humanas sensibles, en sistemas de vigilancia, en procesos políticos, en la seguridad nacional y en la vida cotidiana de millones de personas. Por eso, dejar su desarrollo librado únicamente a la lógica de competencia sería una irresponsabilidad histórica.

Estamos en un momento crucial en el que no solo debemos admirar los avances de la inteligencia artificial, sino también cuestionar sus límites. Los gobiernos y las grandes empresas tecnológicas tienen la responsabilidad de pensar en el alcance, las consecuencias y los beneficios reales de las decisiones que están tomando. Y deberíamos hacerlo no solo desde una mirada local o inmediata, sino desde una responsabilidad global. Porque, al final, hablar del futuro de la IA también es hablar del tipo de mundo que queremos construir.

Así como existen organismos internacionales para supervisar el uso de tecnologías capaces de poner en riesgo a la humanidad, es momento de empezar a plantearse seriamente la creación de una entidad internacional que regule el uso de la inteligencia artificial. Una iniciativa así tendría que comprometer a gobiernos, empresas y ciudadanos en la defensa del bien común.

«No es que la ética haya desaparecido por completo. Es que quedó subordinada a la lógica de competencia.»

Fuentes:

Sundar Pichai sobre la necesidad de incorporar filósofos, eticistas y científicos sociales al desarrollo de la IA: Business Insider, “Google CEO Pichai Says AI Needs Ethicists, Philosophers …” https://www.businessinsider.com/google-sundar-pichai-generative-ai-ethicists-philosophers-chatgpt-bard-moral-2023-4?utm_source=chatgpt.com

Anthropic, declaración oficial de Dario Amodei sobre sus líneas rojas frente a vigilancia masiva doméstica y armas totalmente autónomas: “Statement from Dario Amodei on our discussions with the Department of War”. https://www.anthropic.com/news/statement-department-of-war?utm_source=chatgpt.com

Reuters, sobre cómo escaló la disputa entre Anthropic y el Pentágono por esas restricciones éticas. https://www.reuters.com/world/how-anthropic-pentagon-dispute-over-ai-safeguards-escalated-2026-03-11/?utm_source=chatgpt.com

Reuters, sobre la designación de Anthropic como “supply-chain risk” por parte del Pentágono. https://www.reuters.com/technology/pentagon-informed-anthropic-it-is-supply-chain-risk-official-says-2026-03-05/?utm_source=chatgpt.com

Reuters, sobre el acuerdo de OpenAI con el Departamento de Defensa para desplegar modelos en redes clasificadas. https://www.reuters.com/business/openai-reaches-deal-deploy-ai-models-us-department-war-classified-network-2026-02-28/?utm_source=chatgpt.com

Una respuesta a “Ética en retirada: la carrera tecnológica que está redefiniendo la IA”

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Volver al blog