Por Gavin Andresen
Continuando con las objeciones al incremento del tamaño máximo por bloque (ver «Por qué es urgente aumentar el tamaño de los bloques»):
Más transacciones significa más ancho de banda, poder de cómputo y coste de almacenamiento, y más coste significa mayor centralización porque menos gente será capaz de pagar dicho coste.
No discutiré la primera parte de esta afirmación –es cierto: significará más costos de validación–. Pero, ¿cuánto más que ahora? ¿Lo suficiente como para preocuparse?
Voy a utilizar el precio actual de ChunkHost.com para hacer algunos cálculos rápidos. No estoy asociado a ChunkHost de ninguna manera –lo estoy usando para este ejemplo porque acepta Bitcoin y he sido un feliz cliente desde hace un tiempo (usé su servicio para hacer algunas pruebas con bloques de 20 megabytes a principios de año).
El poder de cómputo (CPU) y el almacenamiento son baratos hoy en día; una CPU moderadamente rápida puede mantener fácilmente 20 megabytes de transacciones cada diez minutos.
Veinte megabytes descargados más veinte megabytes subidos cada diez minutos se traduce en 170 gigabytes de uso de ancho de banda por mes –muy por debajo del límite de 4 terabytes/mes de incluso el plan menos costoso de ChunkHost–.
El espacio de disco no será un problema muy pronto –con la implementación de la poda (pruning) de la cadena de bloques ya no tienes que usar 30 gigabytes para almacenar toda la cadena–.
Por lo que no parece que el costo real de ejecutar un nodo completo en un centro de datos vaya a cambiar con un tamaño máximo de 20 megabytes por bloque: estará en el orden de los 5 a 10 dólares por mes.
Elegí 20MB como un tamaño de bloque razonable porque 170 gigabytes por mes encaja cómodamente en los típicos 250-300 gigabytes de límite de transferencia de datos por mes –por lo que puedes correr un nodo completo desde tu casa con un plan razonablemente bueno de banda ancha–.
Pero si un nodo completo cuesta tan poco, ¿por qué estamos viendo un declive en el número de nodos completos de la red, incluso con bloques de un megabyte? ¿Los grandes bloques no acelerarían ese declive?
¿Y por qué las empresas subcontratan el funcionamiento de los nodos y usan los servicios de API que ofrecen compañías como BitPay o Coinbase o Chain? Una vez más, ¿los bloques más grandes no acelerarían esa tendencia?
Creo que la respuesta a ambas preguntas es «no» –o, al menos, «no de forma significativa»–. Estoy de acuerdo con la conclusión de Jameson Lopp sobre el motivo por el cual ha disminuido el número de nodos: es «un resultado directo del aumento de la popularidad de las carteras basadas en la web y las carteras SPV (Verificación Simplificada de Pagos), que son más fáciles de usar que las carteras pesadas que deben mantener una copia local de la cadena de bloques». Dadle al usuario típico tres experiencias: una cartera SPV, un nodo completo procesando bloques de un megabyte, y un nodo completo procesando bloques de veinte megabytes, y elegirá siempre la cartera SPV.
Costes de 10 dólares por mes por servicios de hosting y ancho de banda son insignificantes, incluso para un emprendimiento falto de dinero. Encontrar y contratar buen personal es caro, y eso es lo que está impulsando a las empresas a externalizar el mantenimiento de la cadena de bloques. Aumentar el tamaño máximo de los bloques no va a cambiar esa ecuación.