¡Cortesía costosa con ChatGPT! Decir ‘por favor’ y ‘gracias’ cuesta «millones», revela Sam Altman.

Por

El director general de OpenAI aborda las inquietudes sobre el consumo energético al interactuar cortésmente con ChatGPT

La cortesía es fundamental, eso es indiscutible. No obstante, si eres de los que emplean frases como ‘por favor’ o ‘gracias’ al utilizar la inteligencia artificial, es importante que sepas que esto incrementa el consumo eléctrico de OpenAI.

Sam Altman, CEO de OpenAI, ha comentado con un tono ligero en respuesta a un usuario en X que utilizar expresiones de cortesía como ‘por favor’ o ‘gracias’ en ChatGPT representa un coste de ‘decenas de millones de dólares’ en electricidad.

El impacto medioambiental y energético de usar la IA es considerable

Aunque aún es una incógnita si ser amable con la IA nos protegerá en caso de que se rebele y nos domine, es evidente que el uso de estas herramientas basadas en IA implica un significativo consumo eléctrico, necesario para su funcionamiento óptimo.

La preocupación por el impacto medioambiental de estas tecnologías va en aumento, ya que requieren sistemas avanzados para operar y enfriar vastos centros de datos. De acuerdo con estimaciones de Epoch AI, una organización sin fines de lucro que también realiza benchmarks de IA como ‘FrontierMath’, una interacción típica con ChatGPT consume aproximadamente 0,3 vatios-hora (Wh) de electricidad. Esto es diez veces menos que las estimaciones previas de 2,9 Wh en octubre de 2023. Los modelos y sistemas son cada vez más eficientes, pero su adopción masiva resulta en un incremento del consumo eléctrico.

Leer  ¡Peligro!: El volcán Mount Ruang en Indonesia entra en estado de alerta máxima

Un informe de Bestbrokers calcula que el consumo energético total de ChatGPT en un año podría alcanzar los 1.058,5 gigavatios-hora (GWh), basándose en una media de 365.000 millones de prompts y los datos compartidos por Sam Altman de 300 millones de usuarios activos semanales de ChatGPT hace unos meses.

La Agencia Internacional de la Energía (AIE) estima que los centros de datos consumirán alrededor de 945 teravatios-hora (TWh) de electricidad para 2030, en comparación con los 415 TWh actuales. Este año, la organización también proyectó que las emisiones de gases de efecto invernadero derivadas del uso energético de la IA alcanzaron los 180 millones de toneladas, con un aumento previsto de entre 300 y 500 millones de toneladas para 2035.

Además, no debemos olvidar el consumo de agua de estos sistemas, ya que el proceso de enfriamiento de los centros de datos, crucial para el funcionamiento de modelos de IA como ChatGPT, demanda grandes volúmenes de agua. El Instituto de Ingeniería (IIE) de España calcula que entre 10 y 50 consultas pueden consumir aproximadamente 2 litros de agua potable, debido a la intensa necesidad de refrigeración.

Leer  ¡Alerta! Extrañas criaturas del océano descubiertas por pescador ruso

Por lo tanto, aunque parezca mínimo incluir un ‘por favor’ o un ‘gracias’ en tus respuestas, cualquier interacción con la IA consume energía, y no es descabellado pensar que si millones de personas lo hacen, esto también se traduce en un gasto millonario para la compañía.

Esto no sorprende, ya que cualquier servicio que usamos habitualmente tiene un impacto medioambiental, mayor o menor, según la escala y la energía requerida para su operación. Las ‘decenas de millones de dólares’ mencionadas por Altman se refieren específicamente a cuando se usan expresiones de cortesía en prompts separados.

Finalmente, ser cortés en tus prompts podría ayudarte a obtener mejores respuestas. Según TechRadar, los mensajes “educados y bien estructurados suelen generar mejores respuestas y, en ocasiones, pueden incluso disminuir los sesgos”. Aunque importa más que el mensaje sea claro y completo, no está de más mantener la cortesía con la IA. Podría ser crucial si algún día se descontrolan.

Imagen de portada | Generada por IA con ChatGPT

4.3/5 - (20 votos)

Deja un comentario

Partages