OCSA PAMO FERNANDO

HISTORIA DEL INTERNET

La primera descripción documentada acerca de las interacciones sociales que podrían ser propiciadas a través del networking (trabajo en red) está contenida en una serie de memorándums escritos por J.C.R. Licklider, del Massachusetts Institute of Technology, en Agosto de 1962, en los cuales Licklider discute sobre su concepto de Galactic Network (Red Galáctica).

Licklider concibió una red interconectada globalmente a través de la que cada uno pudiera acceder desde cualquier lugar a datos y programas. En esencia, el concepto era muy parecido a la Internet actual. Licklider fue el principal responsable del programa de investigación en ordenadores de la DARPA desde Octubre de 1962. Mientras trabajó en DARPA convenció a sus sucesores Ivan Sutherland, Bob Taylor, y el investigador del MIT Lawrence G. Roberts de la importancia del concepto de trabajo en red. 

En Julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. Kleinrock convenció a Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí.

Para explorar este terreno, en 1965, Roberts conectó un ordenador TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de ordenadores de área amplia jamás construida. El resultado del experimento fue la constatación de que los ordenadores de tiempo compartido podían trabajar juntos correctamente, ejecutando programas y recuperando datos a discreción en la máquina remota, pero que el sistema telefónico de conmutación de circuitos era totalmente inadecuado para esta labor. La convicción de Kleinrock acerca de la necesidad de la conmutación de paquetes quedó pues confirmada. 


CAHUANA ACHAHUI VERONICA YNES

HISTORIA DEL INTERNET

Los inicio de Internet nos remontan a los años 60. En plena guerra fría, Estados Unidos crea una red exclusivamente militar, con el objetivo de que, en el hipotético caso de un ataque ruso, se pudiera tener acceso a la información militar desde cualquier punto del país. 
Este red se creó en 1969 y se llamó ARPANET. En principio, la red contaba con 4 ordenadores distribuidos entre distintas universidades del país. Dos años después, ya contaba con unos 40 ordenadores conectados. Tanto fue el crecimiento de la red que su sistema de comunicación se quedó obsoleto. Entonces dos investigadores crearon el Protocolo TCP/IP, que se convirtió en el estándar de comunicaciones dentro de las redes informáticas (actualmente seguimos utilizando dicho protocolo).

ARPANET siguió creciendo y abriéndose al mundo, y cualquier persona con fines académicos o de investigación podía tener acceso a la red. 
Las funciones militares se desligaron de ARPANET y fueron a parar a MILNET, una nueva red creada por los Estados Unidos. 
La NSF (National Science Fundation) crea su propia red informática llamada NSFNET, que más tarde absorbe a ARPANET, creando así una gran red con propósitos científicos y académicos. 
El desarrollo de las redes fue abismal, y se crean nuevas redes de libre acceso que más tarde se unen aNSFNET, formando el embrión de lo que hoy conocemos como INTERNET.

En 1985 la Internet ya era una tecnología establecida, aunque conocida por unos pocos. 
El autor William Gibson hizo una revelación: el término "ciberespacio". 
En ese tiempo la red era basicamente textual, así que el autor se baso en los videojuegos. Con el tiempo la palabra "ciberespacio" terminó por ser sinonimo de Internet.
El desarrollo de NSFNET fue tal que hacia el año 1990 ya contaba con alrededor de 100.000 servidores.

En el Centro Europeo de Investigaciones Nucleares (CERN), Tim Berners Lee dirigía la búsqueda de un sistema de almacenamiento y recuperación de datos. Berners Lee retomó la idea de Ted Nelson (un proyecto llamado "Xanadú" ) de usar hipervínculos. Robert Caillau quien cooperó con el proyecto, cuanta que en 1990 deciden ponerle un nombre al sistema y lo llamarón World Wide Web (WWW) o telaraña mundial.

La nueva formula permitía vincular información en forma lógica y através de las redes. El contenido se programaba en un lenguaje de hipertexto con "etíquetas" que asignaban una función a cada parte del contenido. Luego, un programa de computación, un intérprete, eran capaz de leer esas etiquetas para despeglar la información. Ese interprete sería conocido como "navegador" o "browser".

En 1993 Marc Andreesen produjo la primera versión del navegador "Mosaic", que permitió acceder con mayor naturalidad a la WWW.
La interfaz gráfica iba más allá de lo previsto y la facilidad con la que podía manejarse el programa abría la red a los legos. Poco después Andreesen encabezó la creación del programa Netscape.

Apartir de entonces Internet comenzó a crecer más rápido que otro medio de comunicación, convirtiendose en lo que hoy todos conocemos.

GUERRA FLROES KEVIN DIEGO

PROTOCOLOS DEL INTERNET
En informática, un protocolo no es más que un conjunto de reglas formales que permiten a dos dispositivos intercambiar datos de forma no ambigua. Un protocolo es, pues, un conjunto de reglas que permiten intercambiar información. El ordenador conectado a una red usa protocolos para permitir que los ordenadores conectados a la red puedan enviar y recibir mensajes, y el protocolo TCP/IP define las reglas para el intercambio de datos sobre Internet.

Los protocolos son, pues, una serie de reglas que utilizan los ordenadores para comunicarse entre sí. El protocolo utilizado determinará las acciones posibles entre dos ordenadores. Para hacer referencia a ellos en el acceso se escribe el protocolo en minúsculas seguido por "://".

Tipos de Protocolo

TCP/IP. Tansmision Control Protocol/Internet Protocol: 

Transmision Control Protocol o Protocolo de Control de Transmisión fragmenta los datos en paquetes de información. Después, estos paquetes son enviados a la red, posiblemente sobre rutas diferentes. El IP es el protocolo más básico de Internet, y provee todos los servicios necesarios para el transporte de datos. Cualquier otro protocolo de Internet se basa en IP o le sirve de base.

Fundamentalmente IP provee:

* Direccionamiento: Las cabeceras IP contienen las direcciones de las máquinas de origen y destino (direcciones IP), direcciones que serán usadas por los enrutadores (routers) para decidir el tramo de red por el que circularán.
* Fragmentación: Si la información a transmitir ("datagramas") supera el tamaño máximo "negociado" (MTU) en el tramo de red por el que va a circular podrá ser dividida en paquetes más pequeños, y reensamblada luego cuando sea necesario.
* Tiempo de Vida de Paquetes: Cada paquete IP contiene un valor de Tiempo de Vida (TTL) que va disminuyendo cada vez que un enrutador recibe y reenvía el paquete. Cuando este valor llega a ser de cero, el paquete deja de ser reenviado (se pierde).
* Tipo de Servicio: Este es un valor sin definición previa pero que puede indicar, por ejemplo, la prioridad del paquete.
* Otras opciones: Valores sin contenido definido previamente que se pueden utilizar, por ejemplo, para que la máquina de origen especifique la ruta que debe seguir el paquete, o para que cada enrutador agregue su propia dirección (para realizar seguimiento de ruta), o para indicar opciones de seguridad de la información contenida, etc.

El IPv6 será la próxima generación de protocolos de Internet y ya está en marcha. Este protocolo se ha desarrollado para ampliar la capacidad de conexión debido al crecimiento de dispositivos y al aumento de equipos portátiles. Y así, ofrecerá la infraestructura necesaria para teléfonos móviles, agendas PDA, electrodomésticos, etc.

La mayor diferencia entre la versión de IP utilizada actualmente (IP versión 4) e IPv6 radica en el espacio de direcciones más grande que admite IPv6. IPv6 admite direcciones de Internet de 128 bits, mientras que IP (versión 4) lo hace a 32 bits, además de ofrecer una configuración más simple y una mayor seguridad.

Por su parte, el protocolo TCP proporciona un servicio de comunicación que forma un circuito, es decir, hace fluir los datos entre el origen y el destino para que sea continuo. Este circuito virtual es lo que se denomina conexión. Así, TCP conecta los ordenadores o programas -loa llamados y los que llaman-, chequea los errores, controla el flujo y tiene capacidad para interrumpirlos.
FTP: File Transfer Protocol o Protocolo de transferencia de archivos . Es un protocolo que define cómo transferir archivos de un ordenador a otro, de un servidor remoto a un servidor local o viceversa. Se precisa un servidor de FTP y un cliente de FTP. Los servidores pueden ser de libre acceso con un login o FTP anónimo. El FTP anónimo es un servidor público de FTP al cual tiene acceso cualquier usuario de Internet sin necesidad de utilizar ninguna contraseña. Se puede utilizar desde un navegador web aunque hay programas específicos como CuteFTP. La mayoría de las páginas web son "subidas" a los servidores respectivos utilizando este protocolo para transferir los archivos desde el ordenador que ha confeccionado las páginas web hasta el servidor.

HTTP: HyperText Transfer Protocol o Protocolo de Transferencia de Hipertextos. Es el protocolo utilizado por los servidores de la World Wide Web desde el nacimiento de la Web en 1990. El protocolo HTTP es el que permite el intercambio de información hipertextual (enlaces) de las páginas web. Se trata de un protocolo genérico orientado a objetos, que puede usarse para muchas tareas como servidor de nombres y sistemas distribuidos orientados a objetos, por extensión de los comandos o los métodos usados. Una de sus características principales es la independencia en la visualización y presentación de los datos, lo que permite que los sistemas sean construidos independientemente del desarrollo de nuevos avances en la representación de los datos. Para visualizar los datos de la Web se precisa de un navegador instalado en la máquina del ordenador cliente. En este protocolo existen una serie de conceptos tales como:

* Conexión: es el circuito virtual establecido entre 2 programas en una red de comunicación
* Mensaje: es la unidad básica de un protocolo HTTP y consiste en una secuencia estructurada que se tramite entre los programas
* Cliente: es el programa que hace la llamada al servidor y es el que atiende en la transmisión la trama de los mensajes
* Servidor: es el programa que presta el servicio en la red
* Proxy: se trata de un programa intermedio que actúa sobre el servidor y el cliente

Así, pues, el protocolo HTTP se basa en la conexión entre cliente y servidor. Una transacción HTTP consiste básicamente en:

* Conexión: establecimiento de una conexión del cliente con el servidor. El puerto TCP/IP 80 es el puerto más conocido, pero se pueden especificar otros puertos no reservados.
* Solicitud: envío por parte del cliente de un mensaje de solicitud al servidor.
* Respuesta: envío por parte del servidor de una respuesta al cliente.
* Cierre: fin de la conexión por parte del cliente y el servidor.

Funcionamiento

1.- El funcionamiento de una red de ordenadores tan grande como internet se basa en una idea conceptualmente sencilla: dividir la información en trozos o paquetes, que viajan de manera independiente hasta su destino, donde conforme van llegando se ensamblan de nuevo para dar lugar al contenido original. Estas funciones las realizan los protocolos TCP/IP: el Transmission Control Protocol se encarga de fragmentar y unir los paquetes y el Internet Protocol tiene como misión hacer llegar los fragmentos de información a su destino correcto.

2.-Los ordenadores personales precisan de un software especial que sepa interpretar correctamente las órdenes del TCP/IP. Este software, que recibe el nombre de pila TCP/IP, realiza una labor de intermediario entre internet y el computador personal. En el caso de los PC es el conocido Winsock, del que existen diversas versiones. Para los Macintosh el software es el MacTCP. Por otra parte, cuando un ordenador personal se conecta a una red de área local a través de la línea telefónica por medio de un módem y un puerto serie, necesita también una pila TCP/IP, así como un protocolo de software, siendo el más extendido el PPP, que al proporcionar más fiabilidad en la conexión ha dejado atrás al más rudimentario protocolo SLIP.

HUARCAYA PEREZ ESTHER NOHEMI

Por el  internet se pueden hacer muchas cosas, mandar y recibir mensajes, conversar, comprar y vender, recibir y dar clases, hacer experimentos a distancia, oír música y ver videos, viajar y visitar museos, estudiar, ganar dinero y amigos, perder el tiempo o divertirse. La lista es interminable y suena más bien a un catálogo fantástico. Además tiene la virtud de expandirse explosivamente al ritmo de las iniciativas más variadas, individuales, comerciales, políticas, religiosas, culturales y científicas.

Internet ha creado como por arte de magia un medio de comunicación que nadie pudo prever hace apenas una década y que hoy nadie controla. No tiene propietario, es, en cierto sentido, de todos y de nadie. No hubo jamás en la historia de las comunicaciones algo semejante a Internet. Vive del aporte personal de cada uno de nosotros.

MOTTA CARBAJAL STHEFANY JULIETH

PROTOCOLOS DEL INTERNET


Un protocolo es un método estándar que permite la comunicación entre procesos (que potencialmente se ejecutan en diferentes equipos), es decir, es un conjunto de reglas y procedimientos que deben respetarse para el envío y la recepción de datos a través de una red. Existen diversos protocolos de acuerdo a cómo se espera que sea la comunicación. Algunos protocolos, por ejemplo, se especializarán en el intercambio de archivos (FTP); otros pueden utilizarse simplemente para administrar el estado de la transmisión y los errores (como es el caso de ICMP).

En Internet, los protocolos utilizados pertenecen a una sucesión de protocolos o a un conjunto de protocolos relacionados entre sí. Este conjunto de protocolos se denomina TCP/IP. 
Entre otros, contiene los siguientes protocolos:

Protocolo orientado a conexión y protocolo no orientado a conexión

Generalmente los protocolos se clasifican en dos categorías según el nivel de control de datos requerido:

  • protocolos orientados a conexión: estos protocolos controlan la transmisión de datosdurante una comunicación establecida entre dos máquinas. En tal esquema, el equipo receptor envía acuses de recepción durante la comunicación, por lo cual el equipo remitente es responsable de la validez de los datos que está enviando. Los datos se envían entonces como flujo de datos. TCP es un protocolo orientado a conexión;
  • protocolos no orientados a conexión: éste es un método de comunicación en el cual el equipo remitente envía datos sin avisarle al equipo receptor, y éste recibe los datos sin enviar una notificación de recepción al remitente. Los datos se envían entonces como bloques (datagramas). UDP es un protocolo no orientado a conexión.

CALCINA LARICO, TANIA ANAIS

La informática es una ciencia que estudia métodos, procesos y técnicas con el fin de almacenar, procesar y transmitir información 

el sistema de tramite de la información se divide 

entrada: captación de la información, el hardware por ejemplo el teclado, el mouse

proceso: tratamiento de resultados, software por ejemplo los programas, aplicaciones, procesadores de texto

salida: transmisión de la información por ejemplo los auriculares impresora etc.


CALCINA LARICO, TANIA ANAIS

El Internet es un conjunto descentralizado de redes de comunicación interconectadas a través de un conjunto de protocolos. esto significa que la información no necesita pasar necesariamente por un nodo de red, sino que puede tomar caminos alternativos según convengan.

Área Transversal PPD. Con tecnología de Blogger.