Como está escrito en el encabezado, mi pregunta es, ¿por qué TCP / IP usa la encoding big endian cuando transmite datos y no el esquema alternativo little-endian?
RFC1700 declaró que debe ser así . (y definió el orden de bytes de red como big-endian).
La convención en la documentación de los Protocolos de Internet es express los números en decimales y los datos de las imágenes en orden “big-endian” [COHEN]. Es decir, los campos se describen de izquierda a derecha, con el octeto más significativo a la izquierda y el octeto menos significativo a la derecha.
La referencia que hacen es
On Holy Wars and a Plea for Peace Cohen, D. Computer
El resumen se puede encontrar en IEN-137 o en esta página IEEE .
Resumen:
El camino elegido no hace mucha diferencia. Es más importante acordar un pedido que el orden acordado.
Llega a la conclusión de que tanto los esquemas big-endian como little-endian podrían haber sido posibles. No existe un esquema mejor / peor , y cualquiera puede usarse en lugar del otro siempre que sea consistente en todo el sistema / protocolo.