Protocolo

 

               “El protocolo es un sistema de administración distributiva que permite el control entre relaciones inmateriales. Es la manera con la cual el control tecnológico existe”. Alex Galloway

 

En el centro de las tecnologías de las redes de comunicación computacionales se encuentra el protocolo, la tecnología de organización y control que opera en las redes distributivas. Funciona sin recurrir a una estructura de mecanismos jerárquica, piramidal o centralizada; es universal y flexible. Establece reglas que gobiernan las relaciones entre redes, definen la sintaxis, semántica y sincronización de la comunicación, así como también los posibles métodos de recuperación de errores. Los protocolos pueden ser implementados por hardware, por software, o por una combinación de ambos. Esta forma de administración existe en los sistemas de comunicación de redes computarizadas, pero también en una variedad de redes artificiales o biológicas. El protocolo es una regulación voluntaria,  en un ambiente contingente.

El protocolo ejerce control al operar en el nivel del código: los paquetes de información son codificados para que puedan ser transportados, el documento es codificado para que sea fácilmente analizado, y la comunicación es codificada para que un dispositivo local pueda comunicarse efectivamente con uno distante. Una de las funciones del protocolo es que encapsula información dentro de envases técnicamente definidos, con la característica de que se mantiene relativamente indiferente a la información contenida en la transmisión. Lo que es fundamental para mantener la neutralidad en la red.

 

TCP/IP

Las redes distributivas como internet requieren para su operación estándares homogéneos de interconectividad. Sin un protocolo compartido no hay una red.

El TCP o protocolo de control de las transmisiones funciona para regular las transmisiones en las redes que conforman internet. Fue desarrollado en los documentos Request For Comments (o RFC) que definen por medio de memorandum los protocolos y políticas de internet, estos documentos están abiertas al público que quiera generar hardware o software que se ajuste a las especificaciones estándar de internet.

El TCP/IP es la combinación de dos protocolos. El TCP provee un servicio de comunicación a nivel de intermediario entre la aplicación del programa y el protocolo de internet (IP). Debido a que la aplicación no necesita conocer los mecanismos para enviar datos por medio de un vínculo con otro usuario ni al protocolo le interesa la información que transmite, como se mencionó anteriormente, la tecnología del protocolo es fundamental para la neutralidad de la red.

Si de alguna manera los paquetes de datos se pierden, se duplican o son enviados fuera de orden, el TCP detecta estos problemas, pide la retransmisión de los paquetes de datos perdidos, y reorganiza los datos. Si los datos siguen sin ser recibidos, se comunica el fracaso de la transmisión.

El IP o protocolo de internet tiene el objetivo de mandar paquetes desde un host a un destino y planear una ruta basándose solamente en la dirección de IP que encabeza los paquetes. Para ello, el IP define estructuras para empaquetar los datos que envía, de la misma manera que define métodos para dirigir los datos de manera que se puedan etiquetar con la información de fuente y destino. Es por medio de este protocolo que tenemos direcciones individuales para cada dispositivo.

Estos dos protocolos suelen clasificarse como la suite de protocolos de internet: TCP/IP que permiten que internet desarrolle una distribución de información horizontal de una computadora a otra. El TCP/IP provee transmisión de datos entre dos clientes, a través de procedimientos específicos que indican cómo la información debe ser empaquetada, llamada, transmitida, enrutada y recibida; esto involucra cuatro capas (layers) de abstracción: el enlace, la capa de internet, la capa de transporte y la de aplicación. La capa más baja es la capa del enlace (link) que contiene los métodos de comunicación dentro de un segmento de red; la capa de internet conecta redes independientes; la capa de transporte maneja la comunicación cliente a cliente; y la capa de aplicación que provee el intercambio de data entre proceso y proceso, creando así la aplicación.

La dupla de TCP/IP está basada en una contradicción entre dos tecnologías opuestas: una que distribuye el centro de forma radical entre locales autónomos y otra que se enfoca en controlar rígidamente jerarquías definidas.

La primera de estas tecnologías, que genera la idea de que internet es una red incontrolable, deriva de la familia de protocolos TCP/IP que son los principales para transmitir datos de una computadora a otra. El IP usa un modelo anárquico y altamente distributivo, siendo que cada dispositivo es igual a cualquier otro dispositivo en el internet global. Por diseño, el IP no puede ser centralizado.

La segunda tecnología que concentra el control entre jerarquías definidas fuertemente es Domain Name System (DNS), que se traduce como sistema de nombres de dominio, una basta base de datos descentralizada que contiene información de cómo se mapea una dirección en la red a un nombre en la red. Debido a que la red contiene puntos finales inteligentes (esto quiere decir cualquier dispositivo conectado) que son determinados por sí mismos, el DNS permite que cada punto final del sistema se comunique con cualquier otro. Este mapeo es necesario para cada una de las transmisiones en la red.

El DNS estratifica verticalmente la lógica horizontal del TCP/IP a través de un cuerpo de regulaciones que maneja las direcciones de internet y sus nombres. Entender estas dos dinámicas en el internet significa entender la ambivalencia esencial en la que el poder se ejerce en un sistema de redes distributiva. En pocas palabras el principio fundador de la red es el control, no la libertad—el control existe desde su inicio. Entender el protocolo es entender las dimensiones técnicas y las dinámicas políticas del TCP/IP y el DNS.

 

HTTP

El otro protocolo vital para el funcionamiento de internet es el Hypertext Transfer Protocol o HTTP (se traduce como protocolo de transferencia de hipertexto) iniciado por Tim Berners-Lee al final de la década de los ochentas en el CERN. Es el protocolo de comunicación que permite las transferencias de información en la World Wide Web. El HTTP fue desarrollado por el World Wide Web Consortium y Internet Engineering Task Force, colaboración que culminó en 1999. HTTP define la sintaxis y la semántica que utilizan los elementos de software de la arquitectura web (clientes, servidores, proxies) para comunicarse. El HTTP es un protocolo sin estado, es decir, no guarda ninguna información sobre conexiones anteriores. El desarrollo de aplicaciones web necesita frecuentemente mantener un estado. Para esto se usan las cookies, información del cliente que un servidor puede almacenar. Esto le permite a las aplicaciones web instituir la noción de sesión, y también permite rastrear usuarios, ya que las cookies pueden guardarse en el cliente por tiempo indeterminado.

 

 

 

Nota:

Request for Command (RFC) una serie de memorandum iniciados por Steve Crocker in 1969 para tener un archivo de las notas no oficiales durante el desarrollo de ARPANET. Los RFC son documentos oficiales sobre las especificaciones de Internet, los protocolos de comunicación, los procesos y eventos. Además sirven para poder recuperar la evolución y discusión del desarrollo de Internet.

 

 

 

 

czp 

 

Minitel

Minitel fue una red de comunicación que transmitía texto e imagen y funcionaba por vía telefónica. Es considerado como uno de los servicios que precedió al internet.

Ver más

Pixel

El pixel es la porción más pequeña de una imagen que puede ser modificada.

Ver más

QR

La abreviatura inglesa de Quick Response code designa códigos bidimensionales capaces de contener una amplia gama de contenido multimedia.

Ver más

Usuario

Usuario es el avatar o representación virtual de la persona que usa o trabaja en un sistema operativo, en un programa o en una red de computadoras.

Ver más