Es noticia
¿Ser amable sale caro? La cantidad de dinero que pierde OpenAI cada vez que lo eres con ChatGPT
  1. Tecnología
'Gracias' y 'por favor'

¿Ser amable sale caro? La cantidad de dinero que pierde OpenAI cada vez que lo eres con ChatGPT

Eso sí, el CEO de OpenAI ha dicho que es un dinero "bien gastado". Lo que está claro es que las expresiones de cortesía implican el uso de una mayor cantidad de recursos energéticos

Foto: Los gestos de cortesía tienen un precio (EFE/Caroline Brehman)
Los gestos de cortesía tienen un precio (EFE/Caroline Brehman)

OpenAI, la compañía responsable de ChatGPT, ha vuelto al centro del debate tecnológico por un motivo inesperado: el coste económico de la cortesía digital. Una simple expresión como “gracias” o “por favor” puede tener un impacto, aunque mínimo, en el consumo energético de sus sistemas.

La polémica se desató tras una intervención del consejero delegado de OpenAI, Sam Altman, quien ironizó en la red social X sobre cuánto costaba a la empresa la buena educación de sus usuarios. “Decenas de millones de dólares bien gastados. Nunca se sabe”, escribió en X (Twitter), abriendo la puerta a múltiples interpretaciones.

La cifra exacta del gasto por cortesía

Más allá del tono desenfadado de Altman, lo cierto es que añadir palabras amables a una conversación con ChatGPT implica utilizar más recursos computacionales. Cada término adicional se traduce en nuevos tokens, que son las unidades mínimas que el modelo necesita para procesar una petición.

Según han calculado en TechSpot a partir de las tarifas actuales de procesamiento de GPT-3.5 Turbo, el coste es de 0,0015 dólares por cada 1.000 tokens de entrada y 0,002 dólares por cada 1.000 de salida. Por tanto, las expresiones de cortesía pueden representar un gasto de apenas 0,0000015 dólares por interacción. Aun así, aplicadas a millones de usuarios diarios, esa cifra se eleva.

Las estimaciones apuntan a que el uso de fórmulas educadas podría suponer alrededor de 400 dólares diarios, lo que equivaldría a unos 146.000 dólares al año. Aunque la cantidad no es irrelevante, queda lejos de los “decenas de millones” que mencionó Altman, cuya frase no puede entenderse como un cálculo literal.

¿Tiene sentido seguir siendo educado con una inteligencia artificial?

En realidad, el conjunto de operaciones que realiza OpenAI genera un gasto energético mucho mayor. Según datos del sector eléctrico, mantener activos los servidores que alimentan al modelo puede alcanzar los 140 millones de dólares anuales solo en electricidad. Una cifra que engloba todas las interacciones, no únicamente las educadas.

La interpretación más plausible del comentario de Altman es simbólica: en un mundo cada vez más automatizado, mantener las formas, incluso con las máquinas, no debería ser visto como una pérdida de recursos. Al contrario, puede ser una forma de preservar hábitos positivos en la comunicación digital.

“Nunca se sabe”, remató el propio Altman en su publicación. Quizá ese gesto de respeto cotidiano, insignificante en coste, pero valioso en significado, sea recordado el día en que los asistentes virtuales sean más que simples programas. Por el momento, lo cierto es que ser cortés con ChatGPT tiene un precio ínfimo (aunque real).

OpenAI, la compañía responsable de ChatGPT, ha vuelto al centro del debate tecnológico por un motivo inesperado: el coste económico de la cortesía digital. Una simple expresión como “gracias” o “por favor” puede tener un impacto, aunque mínimo, en el consumo energético de sus sistemas.

OpenAI Sam Altman Inteligencia Artificial
El redactor recomienda