jueves, 22 de noviembre de 2012

OSI & TCP/IP


El Modelo de Capas:
Los protocolos de comunicaciones se deben ocupar y definir todos y cada uno de los detalles de una comunicación.
Para que distintas empresas, distintos grupos de trabajo puedan desarrollar su labor en forma independiente se ha definido un modelo en el cual se divide el proceso de la comunicación en pares independientes, llamadas CAPAS.
Cada una de estas capas tiene definida una función específica así como la forma de relacionarse con sus capas vecinas. Este modelo de trabajo se conoce como MODELO DE REFERENCIA OSI O MODELO DE CAPAS


Tecnologias WWW:

En informática, la World Wide Web (WWW) o Red informática mundial    es un sistema de distribución de información basado en hipertexto o hipermedios enlazados y accesibles a través de Internet. Con un navegador web, un usuario visualiza sitios web compuestos de páginas web que pueden contener texto, imágenes, vídeos u otros contenidos multimedia, y navega a través de ellas usando hiperenlaces.
La Web fue creada alrededor de 1989 por el inglés Tim Berners-Lee con la ayuda del belga Robert Cailliau mientras trabajaban en el CERN en Ginebra, Suiza, y publicado en 1992. Desde entonces, Berners-Lee ha jugado un papel activo guiando el desarrollo de estándares Web (como los lenguajes de marcado con los que se crean las páginas web), y en los últimos años ha abogado por su visión de una Web semántica.
Funcionamiento
El primer paso consiste en traducir la parte nombre del servidor de la URL en una dirección IP usando la base de datos distribuida de Internet conocida como DNS. Esta dirección IP es necesaria para contactar con el servidor web y poder enviarle paquetes de datos.
El siguiente paso es enviar una petición HTTP al servidor Web solicitando el recurso. En el caso de una página web típica, primero se solicita el texto HTML y luego es inmediatamente analizado por el navegador, el cual, después, hace peticiones adicionales para los gráficos y otros ficheros que formen parte de la página. Las estadísticas de popularidad de un sitio web normalmente están basadas en el número de páginas vistas o las peticiones de servidor asociadas, o peticiones de fichero, que tienen lugar.
Al recibir los ficheros solicitados desde el servidor web, el navegador renderiza la página tal y como se describe en el código HTML, el CSS y otros lenguajes web. Al final se incorporan las imágenes y otros recursos para producir la página que ve el usuario en su pantalla.

Historia

La idea subyacente de la Web se remonta a la propuesta de Vannevar Bush en los años 40 sobre un sistema similar: a grandes rasgos, un entramado de información distribuida con una interfaz operativa que permitía el acceso tanto a la misma como a otros artículos relevantes determinados por claves. Este proyecto nunca fue materializado, quedando relegado al plano teórico bajo el nombre de Memex. Es en los años 50 cuando Ted Nelson realiza la primera referencia a un sistema de hipertexto, donde la información es enlazada de forma libre. Pero no es hasta 1980, con un soporte operativo tecnológico para la distribución de información en redes informáticas, cuando Tim Berners-Lee propone ENQUIRE al CERN (refiriéndose a Enquire Within Upon Everything, en castellano Preguntando de Todo Sobre Todo), donde se materializa la realización práctica de este concepto de incipientes nociones de la Web.
En marzo de 1989, Tim Berners Lee, ya como personal de la división DD del CERN, redacta la propuesta, que referenciaba a ENQUIRE y describía un sistema de gestión de información más elaborado. No hubo un bautizo oficial o un acuñamiento del término web en esas referencias iniciales, utilizándose para tal efecto el término mesh. Sin embargo, el World Wide Web ya había nacido. Con la ayuda de Robert Cailliau, se publicó una propuesta más formal para la world wide web el 6 de agosto de 1991.
Berners-Lee usó un NeXTcube como el primer servidor web del mundo y también escribió el primer navegador web, WorldWideWeb en 1991. En las Navidades del mismo año, Berners-Lee había creado todas las herramientas necesarias para que una web funcionase: el primer navegador web (el cual también era un editor web), el primer servidor web y las primeras páginas web que al mismo tiempo describían el proyecto.
El 6 de agosto de 1991, envió un pequeño resumen del proyecto World Wide Web al newsgroup  alt.hypertext. Esta fecha también señala el debut de la web como un servicio disponible públicamente en Internet.
El concepto, subyacente y crucial, del hipertexto tiene sus orígenes en viejos proyectos de la década de los 60, como el Proyecto Xanadu de Ted Nelson y el sistema on-line NLS de Douglas Engelbart. Los dos, Nelson y Engelbart, estaban a su vez inspirados por el ya citado sistema basado en microfilm "memex", de Vannevar Bush.
El gran avance de Berners-Lee fue unir hipertexto e Internet. En su libro Weaving the Web (en castellano, Tejiendo la Red), explica que él había sugerido repetidamente que la unión entre las dos tecnologías era posible para miembros de las dos comunidades tecnológicas, pero como nadie aceptó su invitación, decidió, finalmente, hacer frente al proyecto él mismo. En el proceso, desarrolló un sistema de identificadores únicos globales para los recursos web y también: el Uniform Resource Identifier.
World Wide Web tenía algunas diferencias de los otros sistemas de hipertexto que estaban disponibles en aquel momento:
<!--[if !supportLists]-->§  <!--[endif]-->WWW sólo requería enlaces unidireccionales en vez de los bidireccionales. Esto hacía posible que una persona enlazara a otro recurso sin necesidad de ninguna acción del propietario de ese recurso. Con ello se reducía significativamente la dificultad de implementar servidores web y navegadores (en comparación con los sistemas anteriores), pero en cambio presentaba el problema crónico de los enlaces rotos.
<!--[if !supportLists]-->§  <!--[endif]-->A diferencia de sus predecesores, como HyperCard, World Wide Web era no-propietario, haciendo posible desarrollar servidores y clientes independientemente y añadir extensiones sin restricciones de licencia.
El 30 de abril de 1993, el CERN anunció que la web sería gratuita para todos, sin ningún tipo de honorarios.
Viola WWW fue un navegador bastante popular en los comienzos de la web que estaba basado en el concepto de la herramienta hipertextual de software de Mac denominada HyperCard. Sin embargo, los investigadores generalmente están de acuerdo en que el punto de inflexión de la World Wide Web comenzó con la introducción del navegador web Mosaic en 1993, un navegador gráfico desarrollado por un equipo del NCSA en la Universidad de Illinois en Urbana-Champaign (NCSA-UIUC), dirigido por Marc Andreessen. El apoyo para desarrollar Mosaic vino del High-Performance Computing and Communications Initiative, un programa de fondos iniciado por el entonces gobernador Al Gore en el High Performance Computing and Communication Act of 1991, también conocida como la Gore Bill. Antes del lanzamiento de Mosaic, las páginas web no integraban un amplio entorno gráfico y su popularidad fue menor que otros protocolos anteriores ya en uso sobre Internet, como el protocolo Gopher y WAIS. La interfaz gráfica de usuario de Mosaic permitió a la WWW convertirse en el protocolo de Internet más popular de una manera fulgurante...

 

Java y JavaScript

Un avance significativo en la tecnología web fue la Plataforma Java de Sun Microsystems. Este lenguaje permite que las páginas web contengan pequeños programas (llamados applets) directamente en la visualización. Estos applets se ejecutan en el ordenador del usuario, proporcionando un interfaz de usuario más rico que simples páginas web.
JavaScript, en cambio, es un lenguaje de script que inicialmente fue desarrollado para ser usado dentro de las páginas web. La versión estandarizada es el ECMAScript. Si bien los nombres son similares, JavaScript fue desarrollado por Netscape y no tiene relación alguna con Java, aparte de que sus sintaxis derivan del lenguaje de programación C. En unión con el Document Object Model de una página web, JavaScript se ha convertido en una tecnología mucho más importante de lo que pensaron sus creadores originales. La manipulación del Modelo de Objetos de Documento después de que la página ha sido enviada al cliente se ha denominado HTML Dinámico (DHTML), para enfatizar un cambio con respecto a las visualizaciones de HTML estático.

 

 

Estándares

Destacamos los siguientes estándares:
<!--[if !supportLists]-->§  <!--[endif]-->el Identificador de Recurso Uniforme (URI), que es un sistema universal para referenciar recursos en la Web, como páginas web,
<!--[if !supportLists]-->§  <!--[endif]-->el Protocolo de Transferencia de Hipertexto (HTTP), que especifica cómo se comunican el navegador y el servidor entre ellos,
  • Hypertext Transfer Protocol (HTTP) (en español, Protocolo de Transferencia de Hipertexto)
    • RFC 1945, Especificación de HTTP/1.0 (Mayo de 1996)
    • RFC 2616, Especificación de HTTP/1.1 (Junio de 1999)
    • RFC 2617, Autenticación HTTP
    • HTTP/1.1 Especificación de errores de HTTP/1.1
<!--[if !supportLists]-->§  <!--[endif]-->el Lenguaje de Marcado de Hipertexto (HTML), usado para definir la estructura y contenido de documentos de hipertexto,
  • Hypertext Markup Language (HTML) (en español, Lenguaje de Etiquetado de Hipertexto)
    • Internet Draft, HTML version 1
    • RFC 1866, HTML version 2.0
    • Referencia de la especificación HTML 3.2
    • Especificación de HTML 4.01
    • Especificación de HTML5
    • Especificación de HTML Extensible (XHTML)1.0
    • Especificación de HTML Extensible (XHTML)1.1
<!--[if !supportLists]-->§  <!--[endif]-->el Lenguaje de Marcado Extensible (XML), usado para describir la estructura de los documentos de texto.
  • Uniform Resource Locators (URL) (en español, Localizador de Recursos Uniforme)
    • RFC 1738, Localizador de Recursos Uniforme (URL) (Diciembre de 1994)
    • RFC 3986, Uniform Resource Identifier (URI) (en castellano, Identificador de Recursos Uniforme): Sintaxis general (Enero de 2005)
Berners Lee dirige desde 2007 el World Wide Web Consortium (W3C), el cual desarrolla y mantiene esos y otros estándares que permiten a los ordenadores de la Web almacenar y comunicar efectivamente diferentes formas de información.

Tecnologías web:
Las tecnologías web implican un conjunto de herramientas que nos facilitarán lograr mejores resultados a la hora del desarrollo de un sitio web.

Navegadores web

<!--[if !supportLists]-->§  <!--[endif]-->Mozilla Firefox
<!--[if !supportLists]-->§  <!--[endif]-->Google Chrome
<!--[if !supportLists]-->§  <!--[endif]-->Amaya
<!--[if !supportLists]-->§  <!--[endif]-->Epiphany
<!--[if !supportLists]-->§  <!--[endif]-->Galeon
<!--[if !supportLists]-->§  <!--[endif]-->Internet Explorer sobre Windows
<!--[if !supportLists]-->§  <!--[endif]-->Konqueror sobre linux
<!--[if !supportLists]-->§  <!--[endif]-->Lynx sobre linux
<!--[if !supportLists]-->§  <!--[endif]-->Netscape Navigator
<!--[if !supportLists]-->§  <!--[endif]-->Opera
<!--[if !supportLists]-->§  <!--[endif]-->Safari
<!--[if !supportLists]-->§  <!--[endif]-->Seamonkey
<!--[if !supportLists]-->§  <!--[endif]-->Shiira
<!--[if !supportLists]-->§  <!--[endif]-->Flock
<!--[if !supportLists]-->§  <!--[endif]-->Arora
<!--[if !supportLists]-->§  <!--[endif]-->K-Meleon
<!--[if !supportLists]-->§  <!--[endif]-->Orca Browser
<!--[if !supportLists]-->§  <!--[endif]-->Avant Browser

Servidores web

<!--[if !supportLists]-->§  <!--[endif]-->Servidor HTTP Apache (libre, servidor más usado del mundo)
<!--[if !supportLists]-->§  <!--[endif]-->Servidor HTTP Cherokee
<!--[if !supportLists]-->§  <!--[endif]-->IIS
<!--[if !supportLists]-->§  <!--[endif]-->FTP

Otras tecnologías

<!--[if !supportLists]-->§  <!--[endif]-->OAI-PMH
<!--[if !supportLists]-->§  <!--[endif]-->CFM Coldfusion
<!--[if !supportLists]-->§  <!--[endif]-->DHTML
<!--[if !supportLists]-->§  <!--[endif]-->PHP
<!--[if !supportLists]-->§  <!--[endif]-->ASP
<!--[if !supportLists]-->§  <!--[endif]-->CGI
<!--[if !supportLists]-->§  <!--[endif]-->JSP (Tecnología Java )
<!--[if !supportLists]-->§  <!--[endif]-->.NET

Tipología web

<!--[if !supportLists]-->§  <!--[endif]-->Buscador Internet
<!--[if !supportLists]-->§  <!--[endif]-->Software social
<!--[if !supportLists]-->§  <!--[endif]-->Portal web o CMS
<!--[if !supportLists]-->§  <!--[endif]-->Bitácora o Weblog / Blog
<!--[if !supportLists]-->§  <!--[endif]-->Wiki
<!--[if !supportLists]-->§  <!--[endif]-->Web 2.0

 

Comunicación inalámbrica:
La comunicación inalámbrica o sin cables es aquella en la que extremos de la comunicación (emisor/receptor) no se encuentran unidos por un medio de propagación físico, sino que se utiliza la modulación de ondas electromagnéticas a través del espacio. En este sentido, los dispositivos físicos sólo están presentes en los emisores y receptores de la señal, entre los cuales encontramos: antenas, computadoras portátiles, PDA, teléfonos móviles, etc.

Aspecto histórico y generalidades

La comunicación inalámbrica, que se realiza a través de ondas de radiofrecuencia, facilita la operación en lugares donde la computadora no se encuentra en una ubicación fija (almacenes, oficinas de varios pisos, etc.) actualmente se utiliza de una manera general y accesible para todo público. Cabe también mencionar actualmente que las redes cableadas presentan ventaja en cuanto a transmisión de datos sobre las inalámbricas. Mientras que las cableadas proporcionan velocidades de hasta 1Gbps (Red Gigabit), las inalámbricas alcanzan sólo hasta 108 Mbps. 
Se puede realizar una “mezcla” entre inalámbricas y alámbricas, de manera que pueden funcionar de la siguiente manera: que el sistema cableado sea la parte principal y la inalámbrica sea la que le proporcione movilidad al equipo y al operador para desplazarse con facilidad en distintos campo (almacén u oficina).
Actualmente, las transmisiones inalámbricas constituyen una eficaz herramienta que permite la transferencia de voz, datos y vídeo sin la necesidad de cableado. Esta transferencia de información es lograda a través de la emisión de ondas de radio teniendo dos ventajas: movilidad y flexibilidad del sistema en general.

Aspectos tecnológicos

En general, la tecnología inalámbrica utiliza ondas de radiofrecuencia de baja potencia y una banda específica, de uso libre o privada para transmitir, entre dispositivos.
Estas condiciones de libertad de utilización sin necesidad de licencia, ha propiciado que el número de equipos, especialmente computadoras, que utilizan las ondas para conectarse, a través deredes inalámbricas haya crecido notablemente.

Campos de utilización

La tendencia a la movilidad y la ubicuidad hacen que cada vez sean más utilizados los sistemas inalámbricos, y el objetivo es ir evitando los cables en todo tipo de comunicación, no solo en el campo informático sino en televisión, telefonía, seguridad, domótica, etc.
Un fenómeno social que ha adquirido gran importancia, en todo el mundo, como consecuencia del uso de la tecnología inalámbrica son las comunidades inalámbricas que buscan la difusión de redes alternativas a las comerciales. El mayor exponente de esas iniciativas en España es RedLibre.

Algunos problemas asociados con la tecnología inalámbrica

Los hornos de microondas utilizan radiaciones en el espectro de 2,45 Ghz. Es por ello que las redes y teléfonos inalámbricos que utilizan el espectro de 2,4 Ghz. pueden verse afectados por la proximidad de este tipo de hornos, que pueden producir interferencias en las comunicaciones.
Otras veces, este tipo de interferencias provienen de una fuente que no es accidental. Mediante el uso de un perturbador o inhibidor de señal se puede dificultar e incluso imposibilitar las comunicaciones en un determinado rango de frecuencias.

Equipo inalámbrico

Algunos de los equipos de punto de acceso que normalmente vienen con antena omni 2 Dbi, muchas veces desmontables, en las cuales se puede hacer enlaces por encima de los 500 metros y además se pueden interconectar entre sí. No debe haber obstáculos para que la señal sea excelente, ya que esto interfiere en la señal y puede haber problemas en la conexión.


Seguridad informática:
La seguridad informática, es el área de la informática que se enfoca en la protección de la infraestructura computacional y todo lo relacionado con esta (incluyendo la información contenida). Para ello existen una serie de estándares, protocolos, métodos, reglas, herramientas y leyes concebidas para minimizar los posibles riesgos a la infraestructura o a la información. La seguridad informática comprende software, bases de datos, metadatos, archivos y todo lo que la organización valore (activo) y signifique un riesgo si ésta llega a manos de otras personas. Este tipo de información se conoce como información privilegiada o confidencial.
El concepto de seguridad de la información no debe ser confundido con el de seguridad informática, ya que este último sólo se encarga de la seguridad en el medio informático, pudiendo encontrar información en diferentes medios o formas.
La seguridad informática es la disciplina que se ocupa de diseñar las normas, procedimientos, métodos y técnicas destinados a conseguir un sistema de información seguro y confiable.

Objetivos de la seguridad informática
La seguridad informática está concebida para proteger los activos informáticos, entre los que se encuentran.
<!--[if !supportLists]-->§  <!--[endif]-->La información contenida
<!--[if !supportLists]-->§  <!--[endif]-->La infraestructura computacional.
<!--[if !supportLists]-->§  <!--[endif]-->Los usuarios
Las amenazas
Una vez que la programación y el funcionamiento de un dispositivo de almacenamiento (o transmisión) de la información se consideran seguras, todavía deben ser tenidos en cuenta las circunstancias "no informáticas" que pueden afectar a los datos, las cuales son a menudo imprevisibles o inevitables, de modo que la única protección posible es la redundancia (en el caso de los datos) y la descentralización -por ejemplo mediante estructura de redes- (en el caso de las comunicaciones).
Estos fenómenos pueden ser causados por:
<!--[if !supportLists]-->§  <!--[endif]-->El usuario: causa del mayor problema ligado a la seguridad de un sistema informático (porque no le importa, no se da cuenta o a propósito).
<!--[if !supportLists]-->§  <!--[endif]-->Programas maliciosos: programas destinados a perjudicar o a hacer un uso ilícito de los recursos del sistema. Es instalado (por inatención o maldad) en el ordenador abriendo una puerta a intrusos o bien modificando los datos. Estos programas pueden ser un virus informático, un gusano informático, un troyano, una bomba lógica o un programa espía o Spyware.
<!--[if !supportLists]-->§  <!--[endif]-->Un intruso: persona que consigue acceder a los datos o programas de los cuales no tiene acceso permitido (cracker, defacer, script kiddie o Script boy, viruxer, etc.).
<!--[if !supportLists]-->§  <!--[endif]-->Un siniestro (robo, incendio, inundación): una mala manipulación o una malintención derivan a la pérdida del material o de los archivos.
<!--[if !supportLists]-->§  <!--[endif]-->El personal interno de Sistemas. Las pujas de poder que llevan a disociaciones entre los sectores y soluciones incompatibles para la seguridad informática.

Tipos de amenaza
El hecho de conectar una red a un entorno externo nos da la posibilidad de que algún atacante pueda entrar en ella, con esto, se puede hacer robo de información o alterar el funcionamiento de la red. Sin embargo el hecho de que la red no sea conectada a un entorno externo no nos garantiza la seguridad de la misma. De acuerdo con el Computer Security Institute (CSI) de San Francisco aproximadamente entre 60 y 80 por ciento de los incidentes de red son causados desde adentro de la misma. Basado en esto podemos decir que existen 2 tipos de amenazas:
<!--[if !supportLists]-->§  <!--[endif]-->Amenazas internas: Generalmente estas amenazas pueden ser más serias que las externas por varias razones como son:
-Los usuarios conocen la red y saben cómo es su funcionamiento.
-Tienen algún nivel de acceso a la red por las mismas necesidades de su trabajo.
-Los IPS y Firewalls son mecanismos no efectivos en amenazas internas.
El resultado es la violación de los sistemas, provocando la pérdida o modificación de los datos sensibles de la organización, lo que puede representar un daño con valor de miles o millones de dólares.
<!--[if !supportLists]-->§  <!--[endif]-->Amenazas externas: Son aquellas amenazas que se originan fuera de la red. Al no tener información certera de la red, un atacante tiene que realizar ciertos pasos para poder conocer qué es lo que hay en ella y buscar la manera de atacarla. La ventaja que se tiene en este caso es que el administrador de la red puede prevenir una buena parte de los ataques externos.

 Tipos de Virus
Los virus se pueden clasificar de la siguiente forma:
Virus residentes
La característica principal de estos virus es que se ocultan en la memoria RAM de forma permanente o residente. De este modo, pueden controlar e interceptar todas las operaciones llevadas a cabo por el sistema operativo, infectando todos aquellos ficheros y/o programas que sean ejecutados, abiertos, cerrados, renombrados, copiados. Algunos ejemplos de este tipo de virus son: Randex, CMJ, Meve, MrKlunky.
Virus de acción directa
Al contrario que los residentes, estos virus no permanecen en memoria. Por tanto, su objetivo prioritario es reproducirse y actuar en el mismo momento de ser ejecutados. Al cumplirse una determinada condición, se activan y buscan los ficheros ubicados dentro de su mismo directorio para contagiarlos.
Virus de sobreescritura
Estos virus se caracterizan por destruir la información contenida en los ficheros que infectan. Cuando infectan un fichero, escriben dentro de su contenido, haciendo que queden total o parcialmente inservibles.
Virus de boot(bot_kill) o de arranque
Los términos boot o sector de arranque hacen referencia a una sección muy importante de un disco o unidad de almacenamiento CD,DVD, memorias USB etc. En ella se guarda la información esencial sobre las características del disco y se encuentra un programa que permite arrancar el ordenador. Este tipo de virus no infecta ficheros, sino los discos que los contienen. Actúan infectando en primer lugar el sector de arranque de los dispositivos de almacenamiento. Cuando un ordenador se pone en marcha con un dispositivo de almacenamiento, el virus de boot infectará a su vez el disco duro.
Los virus de boot no pueden afectar al ordenador mientras no se intente poner en marcha a éste último con un disco infectado. Por tanto, el mejor modo de defenderse contra ellos es proteger los dispositivos de almacenamiento contra escritura y no arrancar nunca el ordenador con uno de estos dispositivos desconocido en el ordenador.
Algunos ejemplos de este tipo de virus son: Polyboot.B, AntiEXE.
Virus de enlace o directorio
Los ficheros se ubican en determinadas direcciones (compuestas básicamente por unidad de disco y directorio), que el sistema operativo conoce para poder localizarlos y trabajar con ellos.
Virus cifrados
Más que un tipo de virus, se trata de una técnica utilizada por algunos de ellos, que a su vez pueden pertenecer a otras clasificaciones. Estos virus se cifran a sí mismos para no ser detectados por los programas antivirus. Para realizar sus actividades, el virus se descifra a sí mismo y, cuando ha finalizado, se vuelve a cifrar.
Virus polimórficos
Son virus que en cada infección que realizan se cifran de una forma distinta (utilizando diferentes algoritmos y claves de cifrado). De esta forma, generan una elevada cantidad de copias de sí mismos e impiden que los antivirus los localicen a través de la búsqueda de cadenas o firmas, por lo que suelen ser los virus más costosos de detectar.
Virus multipartites
Virus muy avanzados, que pueden realizar múltiples infecciones, combinando diferentes técnicas para ello. Su objetivo es cualquier elemento que pueda ser infectado: archivos, programas, macros, discos, etc.
Virus del Fichero
Infectan programas o ficheros ejecutables (ficheros con extensiones EXE y COM). Al ejecutarse el programa infectado, el virus se activa, produciendo diferentes efectos.
Virus de FAT
La Tabla de Asignación de Ficheros o FAT es la sección de un disco utilizada para enlazar la información contenida en éste. Se trata de un elemento fundamental en el sistema. Los virus que atacan a este elemento son especialmente peligrosos, ya que impedirán el acceso a ciertas partes del disco, donde se almacenan los ficheros críticos para el normal funcionamiento del ordenador.
de seguridad informática.
Técnicas para asegurar el sistema
<!--[if !supportLists]-->§  <!--[endif]-->Codificar la información: CriptologíaCriptografía y Criptociencia, contraseñas difíciles de averiguar a partir de datos personales del individuo.
<!--[if !supportLists]-->§  <!--[endif]-->Vigilancia de red. Zona desmilitarizada
<!--[if !supportLists]-->§  <!--[endif]-->Tecnologías repelentes o protectoras: cortafuegossistema de detección de intrusos - antispywareantivirusllaves para protección de software, etc. Mantener los sistemas de información con las actualizaciones que más impacten en la seguridad.
<!--[if !supportLists]-->§  <!--[endif]-->Sistema de Respaldo Remoto. Servicio de backup remoto

Respaldo de Información                        
La información constituye el activo más importante de las empresas, pudiendo verse afectada por muchos factores tales como robos, incendios, fallas de disco, virus u otros. Desde el punto de vista de la empresa, uno de los problemas más importantes que debe resolver es la protección permanente de su información crítica.
La medida más eficiente para la protección de los datos es determinar una buena política de copias de seguridad o backups: Este debe incluir copias de seguridad completa (los datos son almacenados en su totalidad la primera vez) y copias de seguridad incrementales (sólo se copian los ficheros creados o modificados desde el último backup). Es vital para las empresas elaborar un plan de backup en función del volumen de información generada y la cantidad de equipos críticos.
Un buen sistema de respaldo debe contar con ciertas características indispensables:
Continuo
El respaldo de datos debe ser completamente automático y continuo. Debe funcionar de forma transparente, sin intervenir en las tareas que se encuentra realizando el usuario.
Seguro
Muchos softwares de respaldo incluyen cifrado de datos (128-448 bits), lo cual debe ser hecho localmente en el equipo antes del envío de la información.
Remoto
Los datos deben quedar alojados en dependencias alejadas de la empresa.
<!--[if !supportLists]-->§     <!--[endif]-->Mantención de versiones anteriores de los datos
Se debe contar con un sistema que permita la recuperación de versiones diarias, semanales y mensuales de los datos.
Hoy en día los sistemas de respaldo de información online (Servicio de backup remoto) están ganando terreno en las empresas y organismos gubernamentales. La mayoría de los sistemas modernos de respaldo de información online cuentan con las máximas medidas de seguridad y disponibilidad de datos. Estos sistemas permiten a las empresas crecer en volumen de información sin tener que estar preocupados de aumentar su dotación física de servidores y sistemas de almacenamiento.

Consideraciones de software
Tener instalado en la máquina únicamente el software necesario reduce riesgos. Así mismo tener controlado el software asegura la calidad de la procedencia del mismo (el software obtenido de forma ilegal o sin garantías aumenta los riesgos

Consideraciones de una red
Los puntos de entrada en la red son generalmente el correo, las páginas web y la entrada de ficheros desde discos, o de ordenadores ajenos, como portátiles.
Mantener al máximo el número de recursos de red sólo en modo lectura, impide que ordenadores infectados propaguen virus. En el mismo sentido se pueden reducir los permisos de los usuarios al mínimo.
Se pueden centralizar los datos de forma que detectores de virus en modo batch puedan trabajar durante el tiempo inactivo de las máquinas.
Controlar y monitorizar el acceso a Internet puede detectar, en fases de recuperación, cómo se ha introducido el virus.

 Organismos oficiales de seguridad informática
Existen organismos oficiales encargados de asegurar servicios de prevención de riesgos y asistencia a los tratamientos de incidencias, tales como el CERT/CC (Computer Emergency Response Team Coordination Center) del SEI (Software Engineering Institute) de la Carnegie Mellon University el cual es un centro de alerta y reacción frente a los ataques informáticos, destinados a las empresas o administradores, pero generalmente estas informaciones son accesibles a todo el mundo.

Impacto de las redes en la sociedad:
Internet tiene un impacto profundo en el mundo laboral, el ocio y el conocimiento a nivel mundial. Gracias a la web, millones de personas tienen acceso fácil e inmediato a una cantidad extensa y diversa de información en línea. Un ejemplo de esto es el desarrollo y la distribución de colaboración del software de Free/Libre/Open-Source (FLOSS) por ejemplo GNU, Linux, Mozilla y OpenOffice.org
Comparado a las enciclopedias y a las bibliotecas tradicionales, la web ha permitido una descentralización repentina y extrema de la información y de los datos. Algunas compañías e individuos han adoptado el uso de los weblogs, que se utilizan en gran parte como diarios actualizables. Algunas organizaciones comerciales animan a su personal para incorporar sus áreas de especialización en sus sitios, con la esperanza de que impresionen a los visitantes con conocimiento experto e información libre. Internet ha llegado a gran parte de los hogares y de las empresas de los países ricos. En este aspecto se ha abierto unabrecha digital con los países pobres, en los cuales la penetración de Internet y las nuevas tecnologías es muy limitada para las personas. No obstante, en el transcurso del tiempo se ha venido extendiendo el acceso a Internet en casi todas las regiones del mundo, de modo que es relativamente sencillo encontrar por lo menos 2 computadoras conectadas en regiones remotas
Desde una perspectiva cultural del conocimiento, Internet ha sido una ventaja y una responsabilidad. Para la gente que está interesada en otras culturas, la red de redes proporciona una cantidad significativa de información y de una interactividad que sería inasequible de otra manera
Internet entró como una herramienta de globalización, poniendo fin al aislamiento de culturas. Debido a su rápida masificación e incorporación en la vida del ser humano, el espacio virtual es actualizado constantemente de información, fidedigna o irrelevante

No hay comentarios:

Publicar un comentario