¿Pensáis que IPV6 es más rápido que IPV4?

Un compañero vuestro de clase ha propuesto este interesante tema para discutirlo. Como punto de partida, os dejo su opinión:

La respuesta es que no, IPV4 resulta ser un poco más rápida que IPV6. Esta afirmación es como
resultado de que “RIPE” , elaboró un estudio sobre qué tecnología era la más rápida. Mientras
que un análisis comparativo realizado por “Compuware” entre urls de ambos protocolos
muestra que los sitios IPv6 son un 80% más lento que sus homólogos IPv4.
En un futuro en el que probablemente IPV6 estará destinado a sustituir a IPv4 (cuyo límite en el
número de direcciones de red admisibles está empezando a restringir el crecimiento de
Internet), al margen de esto planteo las siguientes preguntas:
¿Consideráis esto un avance tecnológico o más bien un retroceso?
¿Pensáis que puede ser solamente una estrategia económica para vender dispositivos que
admitan IPV6 o no?
¿Que tecnología prefieres actualmente IPV4 o IPV6? ¿Cuáles son los motivos?

Recordar que los argumentos, deben ser razonados. Por si os sirve de ayuda, revisad esta entrada anterior


WIFI: ¿Abierta o cerrada?

Estos últimos temas de la asignatura han estado centrados en la seguridad informática: la protección de nuestra infraestructura de red ante posibles usos no deseados y, en concreto, los hemos enfocando desde el punto de vista de las redes de comunicaciones y las posibilidades que tenemos para proporcionar confidencialidad, disponibilidad, integridad, identificación-autenticación y no repudio.

Navegando por la blogosfera he leído este apunte de E. Dams Dans donde comenta las razones por las que un reconocido experto en seguridad (Bruce_Schneier) deja su WIFI personal completamente abierta.

Ya se sabe, para gustos los colores, pero como podéis comprobar, en este caso, está razonada la decisión. Sin embargo, hay afirmaciones, cuantomenos, conflictivas:

“Riesgo para tus propios datos? Es de hecho mucho mayor cuando tus datos salen de casa a bordo de, por ejemplo, un portátil, y te conectas a través de la red de un hotel o un aeropuerto: la seguridad debería estar en la máquina, y por tanto, si la máquina es segura, la red da exactamente lo mismo (y si no lo es, considerando el razonamiento contrario, también)”

“dedicarse a encriptar y asegurar la red inalámbrica es algo que, directamente, no vale la pena. Y además, si más gente la deja completamente abierta, conseguiremos con ello hacer del mundo un lugar mejor.”

Una de las principales acciones que se deben realizar para proteger un sistema informático es el análisis y valoración del riesgo. Esto es lo que hace Bruce_Schneier en su artículo. Hace un análisis de los riesgos potenciales a los que se puede ver expuesto y una valoración de los mismos dado el entorno y la jurisdicción a la que está sometido, para concluir que no le merece la pena preocuparse.

Creo que no todo el mundo comparte la afirmación de que la seguridad debe recaer en los hosts (por ejemplo yo), aunque en el ámbito en el que está planteada (¡ojo!, no lo olvidemos: se refiere al ámbito doméstico) y con las consideraciones legales particulares de Estados Unidos a las que se refiere (que no conozco y supongo que él hablará con conocimiento de causa), creo que es una decisión muy lógica y sobradamente justificada. No quiero decir que la comparta, sino que es un buen desarrollo lógico de cómo debemos tomar decisiones respecto a éstos temas.


Prácticas recomendadas de DHCP

Instalar y configurar los parámetros de red de todos los nodos de una LAN, se puede centralizar y automatizar mediante DHCP. Esto es aplicable en entornos heterogéneos, es decir, con variedad de clientes (Windows, Linux, Mac,…). Es posible que nos encontremos con la circunstancia de que, bien por disponibilidad, bien por carga, instalemos más de un servidor de DHCP para gestionar este proceso.

En la página de Microsoft (opción, a la derecha, de prácticas recomendadas) dicen que una práctica recomendable para distribuir la carga entre dos servidores DHCP es la llamada regla de diseño 80/20. Dicha regla consiste en distribuir el 80% de las direcciones disponibles para una red entre un primer servidor de DHCP y el 20% restante mediante un segundo servidor. ¿Qué pensáis? ¿Palabra de Microsoft? 😉 ….


La ley de Metcalfe

La ley de Metcalfe (formulada por Robert Metcalfe, fundador de 3com y desarrollador del estándar Ethernet) dice que el valor de una red de comunicaciones aumenta proporcionalmente al cuadrado del número de usuarios del sistema (n2) (fuente: blog de Jorge Domínguez).
Esta ley se refiere al utilidad de la red desde el punto de vista de los servicios, en el sentido de que cuanto más usuarios disponga una red (por ejemplo, las famosas P2P) más utilidad encontraremos puesto que, para el ejemplo en cuestión, de más materiales disfrutaremos y más probabilidad de que exista alguna que nos sea interesante.
Sin embargo, si aplicamos esta ley a los niveles bajos de una red ethernet, los niveles que se dedican a transmitir nuestros datos, ¿será cierta? ¿debemos, por tanto, aplicarla sea cual sea el nivel de trabajo de una red?


Las cookies nos permiten ofrecer nuestros servicios. Al utilizar nuestros servicios, aceptas el uso que hacemos de las cookies. Más información.