¿Por qué el orden de bytes de red se define como big-endian?

Como está escrito en el encabezado, mi pregunta es, ¿por qué TCP / IP usa la encoding big endian cuando transmite datos y no el esquema alternativo little-endian?

RFC1700 declaró que debe ser así . (y definió el orden de bytes de red como big-endian).

La convención en la documentación de los Protocolos de Internet es express los números en decimales y los datos de las imágenes en orden “big-endian” [COHEN]. Es decir, los campos se describen de izquierda a derecha, con el octeto más significativo a la izquierda y el octeto menos significativo a la derecha.

La referencia que hacen es

On Holy Wars and a Plea for Peace Cohen, D. Computer 

El resumen se puede encontrar en IEN-137 o en esta página IEEE .


Resumen:

El camino elegido no hace mucha diferencia. Es más importante acordar un pedido que el orden acordado.

Llega a la conclusión de que tanto los esquemas big-endian como little-endian podrían haber sido posibles. No existe un esquema mejor / peor , y cualquiera puede usarse en lugar del otro siempre que sea consistente en todo el sistema / protocolo.