viernes, 24 de agosto de 2012

Creación de Cables de Red..!!


  • LAS DOS NORMAS ESPECIFICAS PARA COMPUTADORES
  • El cableado estructurado para redes de computadores nombran dos tipos de normas o configuraciones a seguir, estas son: La EIA/TIA-568A (T568A) La EIA/TIA-568B (T568B). La diferencia entre ellas es el orden de los colores de los pares a seguir para el conector RJ45.
  •  INTRODUCCIÓN
  • Un cable cruzado es un cable que interconecta todas las señales de salida en un conector con las señales de entrada en el otro conector, y viceversa; permitiendo a dos dispositivos electrónicos conectarse entre sí con una comunicación full duplex. El término se refiere - comúnmente - al cable cruzado de Ethernet, pero otros cables pueden seguir el mismo principio. También permite transmisión confiable vía una conexión ethernet. El cable cruzado sirve para conectar dos dispositivos igualitarios, como 2 computadoras entre sí, para lo que se ordenan los colores de tal manera que no sea necesaria la presencia de un hub. Actualmente la mayoría de hubs o switches soportan cables cruzados para conectar entre sí. A algunas tarjetas de red les es indiferente que se les conecte un cable cruzado o normal, ellas mismas se configuran para poder utilizarlo PC-PC o PC-Hub/switch.
  • NORMA T568B
  • MATERIALES CABLE UTP CATEGORÍA 5E CONECTORES RJ45
  • MATERIALES PONCHADORA CHAVETA
  • MATERIALES VOLTÍMETRO
  • Quitamos el recudimiento del cable UTP categoría 5E (En ambos lados). 1.5 cm: PASOS PARA LA CREACIÓN DE UN CABLE DE RED DIRECTO
  • Separamos los pares de cables, al mismo tiempo verificamos si se encuentran en buen estado. 3. Separamos uno a uno los cables.
  • Verificamos las configuraciones de los colores del cable directo o punto a punto.
  • Colocamos los hilos en los conectores RJ45.
  • Ponchamos cada uno de los extremos del cable.
  • Comprobamos su buen funcionamiento con el voltímetro utilizando los 2 extremos del cable.
  • Quitamos el recudimiento del cable UTP categoría5E (En ambos lados). PASOS PARA LA CREACIÓN DE UN CABLE DE RED CRUZADO
  • Separamos los pares de cables, al mismo tiempo verificamos si se encuentran en buen estado. 3. Separamos uno a uno los cables.
  • Verificamos las configuraciones de los colores del cable cruzado..
  • Colocamos los hilos en los conectores RJ45. 6. Ponchamos cada uno de los extremos del cable.
  • PASOS PARA LA CRACCIÓN DE UN CABLE DE CONSOLA
  • INTRODUCCIÓN
  •  El cable transpuesto o de consola sirve para conectar el puerto serial de una estación de trabajo al puerto de consola de un router utilizando un adaptador.
  • MATERIALES CABLE UTP CATEGORÍA 5E CONECTORES RJ45
  • MATERIALES DB9 HEMBRA CAUTÍN
  • MATERIALES ESTAÑO, PASTA DE SOLDAR PONCHADORA
  • MATERIALES CHAVETA VOLTÍMETRO
  • Quitamos el recudimiento de un lado del cable UTP categoría 5E 1.5 cm. PASOS PARA LA CREACIÓN DE UN CABLE DE RED CONSOLA
  • Separamos los pares de cables, al mismo tiempo verificamos si se encuentran en buen estado.
  • Separamos uno a uno los cables, encontrando 8 hilos. 4. Insertamos los hilos en el RJ 45 ordenando de acuerdo a una configuración de cable directo.
  • Verificamos las configuraciones de los colores del cable directo. 6. Ponchamos un lado del cable.
  • En el otro extremo del cable soldamos de acuerdo al orden de los cables en un DB9 Hembra.
  • Procedemos a soldar en cada ping.
  • Quedando el soldado de esta manera: 8 . Cable terminado

martes, 21 de agosto de 2012

Seguridades..!!

 

Seguridad en redes Wi-Fi


La seguridad en las redes en general es una asignatura pendiente, de que tan solo recientemente se ha tomado conciencia. En las redes inalámbricas esta necesidad es mas patente, por sus propias características, y forma parte del diseño de las redes Wi-Fi.
El mayor problema de seguridad de las redes Wi-Fi viene dado por su dispersión espacial. No está limitada a un área, a un cable o una fibra óptica, ni tienen puntos concretos de acceso o conexión, si no que se expande y es accesible desde cualquier punto dentro de su radio de cobertura. Esto hace muy vulnerables a las redes inalámbricas pues la seguridad física de dichas redes es difícil de asegurar.
La posibilidad del acceso o monitorización de los datos es una amenaza muy real. Es por esta razón que todos los equipos permiten la encriptación de las comunicaciones mediante diversos algoritmos, que permiten tanto autenticar a los usuarios para evitar accesos no autorizados, como evitar la captura del tráfico de la red por sistemas ajenos a esta.
Otra de las consecuencias de ser una red vía radio es la influencia de otras fuentes radioeléctricas, ya sean otras redes Wi-Fi, equipos radio que trabajen en la misma banda o aparatos de distinta índole que generen interferencias. Es por tanto posible la generación de una interferencia premeditada que bloquee la red Wi-Fi y evite el funcionamiento de esta.
Añadido a esto, existe al posibilidad de la realización de ataques de denegación de servicio (DoS), tanto los clásicos, comunes a todas las redes, como específicos de las redes Wi-Fi. Tanto ataques reales a los distintos protocolos de autentificación, como terminales que no cumplan con los tiempos y reglas de acceso impuestas por las normas Wi-Fi, pueden degradar o incluso parar totalmente el funcionamiento de una red Wi-Fi. Como ejemplo, existen en el mercado terminales, que relajan el cumplimiento de las temporizaciones tanto de AIFS como CW, acortándolas, con lo que se optimiza su funcionamiento al aumentar sus posibilidades de transmitir datos, pero entorpeciendo el del resto de los terminales que sí cumplen con la norma. No son equipos pensados para atacar redes, si no que se basa en una decisión comercial que tiene por objetivo conseguir, ante la percepción del usuario, un mejor funcionamiento del terminal propio frente a la competencia, a consta de ésta.
Cando se piensa en vulnerabilidad de una red Wi-Fi se considera, como lo hemos hecho hasta ahora, la posibilidad de que un cliente no autorizado acceda a datos de la red. Sin embargo existe otro peligro: la inclusión de un punto de acceso no autorizado en la red. Un atacante puede añadir un punto de acceso que anuncie el mismo nombre de red, confundiendo así a algunos clientes que se podrán llegar a conectar a el en vez de a la red legal. Dependiendo de la elaboración de la suplantación, el cliente puede llegar a revelar datos y claves importantes.
Para minimizar el peligro que supone la implementación de una red inalámbrica, existen una serie de normas básicas a tener en cuenta a la hora de configurar la red, tales como:
  • Cambiar las configuraciones por defecto: En contra de lo que suele pensarse, son muchos los administradores de la red que no cambian la configuración fijada en fábrica. Parámetros como las calves y usuarios o el nombre de red se mantienen inalterados. Es cierto que la en la mayoría de las instalaciones se cambia el nombre de la red, pero algo tan importante como la clave de acceso del administrador, en muchos casos, se mantiene inalterada, provocando un punto de acceso simple para cualquier intruso.
  • Activar encriptación: Es una de las prácticas claves y necesarias. Es el método básico y más inmediato de impedir accesos no autorizados a la red, así como capturas de tráfico y datos privados. Existen varios sistemas de encriptación que analizaremos en un punto posterior.
  • Uso de claves “fuertes”: Puesto que es la llave a la red, las claves utilizadas han de ser suficientemente seguras y complejas de averiguar para asegurar la seguridad de la red. Es frecuente usar claves de solo letras, con palabras comunes y muy habitualmente referenciado a datos personales del administrador, como nombres de hijos, edades, etc. que hacen dicha clave fácil de averiguar.
  • Desactivar el anuncio del nombre de red (SSID): Aunque no es viable en todos los casos, la desactivación del anuncio del nombre de la red es un elemento de seguridad añadido. Por un lado, impedirá al atacante identificar la naturaleza y propietario de la red, y por otro hará necesario introducir el nombre de la red manualmente para permitir la asociación a la red Wi-Fi, por lo que previamente deberá ser conocida por el atacante.
  • Filtrados de direcciones MAC: En la mayoría de los puntos de acceso es posible especifica una lista de direcciones MAC que serán admitidas, siendo todas las demás rechazadas. La dirección MAC es una dirección de nivel 2 que lleva la tarjeta de red Wi-Fi grabada de fábrica (análoga a la dirección MAC-Ethernet). Por tanto, si se permite solo el acceso a las direcciones MAC pertenecientes a los equipos propios se impedirá que algún sistema externo pueda conectarse de forma accidental o premeditada. Sin embargo, hay que hacer notar que existen tarjetas de red que permiten el cambio de la dirección MAC, y en ese caso sería posible para un atacante de nuestra red, asignarle una dirección válida de alguno de nuestros equipos y evitar esta medida de seguridad. No obstante para ello, el atacante, debería conocer la dirección MAC de alguno de nuestros equipos, lo cual si las medidas de seguridad física e informática están correctamente implementadas no resultará fácil.
  • Uso de direcciones IP estáticas: No un problema real para un hacker con conocimientos, peor si dificulta el acceso a intrusos ocasionales. Es habitual tener en las redes Wi-Fi la asignación automática de direcciones IP, Gateway y DNS. La práctica de asignar las direcciones manualmente a los terminales inalámbricos tiene la ventaja de que el atacante ha de averiguar en primer lugar los datos de la red, y más importante, nos permite habilitar filtros de manera que solo las direcciones IP asignadas sean permitidas. En caso de que el atacante utilice alguna de las IP asignadas, eventualmente podrá ser detectado pues entrará en conflicto con los terminales legales.
  • VLAN propia para la red Wi-Fi. Es interesante la implementación, en aquellos equipos que lo permitan, de una VLAN específica para la red Wi-Fi. Al ser una red insegura por su propia naturaleza, es recomendable mantenerla separada en todo momento de la red cableada. Así pues, si el punto de acceso, o el controlador asociado, es capaz de gestionar VLANs, mantener el tráfico proveniente de la red Wi-Fi en una VLAN distinta permitirá implementar mecanismos de seguridad y acceso suplementarios que controlen el acceso de los usuarios Wi-Fi a los datos de la red corporativa.
  •   Instalación de un Firewall: Relacionado con el punto anterior, el acceso de los clientes Wi-Fi a la red cableada debería ser gestionado por un Firewall, ya sea actuando de puente entre las correspondientes VLANs o como elemento físico de control, interponiéndose en flujo de tráfico Wi-Fi. En cualquier arquitectura, la inclusión de un firewall nos permitirá implementar políticas de acceso seguras y complejas que aseguren que, aunque algún intruso hubiera conseguido conectarse a la red inalámbrica, no progrese hasta tener acceso a datos sensibles.
Estas medidas, por sí mismas, correctamente implementadas proporcionan seguridad suficiente para entornos no sensibles. Sin embargo existe la posibilidad de aumentar la seguridad mediante técnicas avanzadas, parte de las cuales precisan de la participación de un controlador de puntos de acceso.

  Métodos de encriptación

Las redes Wi-Fi incorporan la posibilidad de encriptar la comunicación. Es una práctica recomendable ya que al ser un medio inalámbrico, de no hacerlo seria muy simple capturar el tráfico que por ella circula y por tanto la captura, por personas no deseadas, de datos sensibles.
A lo largo del desarrollo de las redes Wi-Fi han ido surgiendo diferentes métodos de encriptación de las comunicaciones, evolución necesaria pues los distintos métodos han resultado ser vulnerables y ha sido necesario implementar algoritmos mas seguros que solventaran los problemas de los anteriores. Estos, a su vez, van demandando más recursos de los equipos que los implementan por lo que la solución adoptada será siempre un compromiso entre rendimiento y seguridad. Los métodos estándar disponibles se detallan a continuación.
  • WAP: Al inicio de las redes Wi-Fi ya se vio que las redes inalámbricas tenían problemas de seguridad intrínsecos a su naturaleza. Por esta razón, dichas redes nacieron con la posibilidad de activar encriptación y accesos mediante claves, siendo WAP el primer método que se implementó. Las siglas WAP provienen del inglés Wired Equivalent Privacy (Privacidad equivalente al cable). Ya en el mismo nombre se observa cual era el objetivo de esta encriptación, dar a las redes inalámbricas la misma seguridad que existía en las redes cableadas. Sin embargo la implementación de este protocolo adolece de problemas de diseño, que hace que si un equipo se encuentra dentro del alcance de la red, pueda capturar los paquetes de esta, y con la suficiente cantidad de paquetes capturados se pueda averiguar la clave de la red, y por tanto tener acceso a ella. El proceso de captación de la clave de la red se puede hacer con herramientas públicas gratuitas y tan solo tarda unos pocos minutos.
WAP permite claves de diversas longitudes de bits, lo cual teóricamente aumenta su seguridad, pero en la práctica, y debidos a los problemas existentes en la implementación de este protocolo, la única repercusión de utilizar una clave mas larga es que aumenta el tiempo necesario para averiguar la clave de la red, pero esta sigue siendo vulnerable.
Dentro de WEP se reconocen dos métodos de autentificación de usuarios: Open System y Shared Key.
El método denominado Open System no implementa realmente autentificación. El punto de acceso permitirá que se una cualquier cliente, aunque posteriormente se obligará a que toda comunicación de datos sea codificada según el algoritmo dictado por WEP.
Por el contrario Shared Key dicta que los clientes tendrán que utilizar su clave WEP para autentificarse con el punto de acceso y solo aquellos que tengan las credenciales correctas serán admitidos por el punto de acceso como clientes.
En la práctica es recomendable utilizar autentificación Shared Key, pues Open System no proporciona realmente una autentificación de los clientes, solo encriptación de las comunicaciones, y aunque sería suficiente para preservar los datos, expone al punto de acceso a ataques de denegación de servicio (DoS).
Este protocolo no implementa ninguna gestión de claves. La clave utilizada es compartida por el punto de acceso y todos los clientes y debe ser distribuida a estos manualmente. Una consecuencia de ello es que con tener acceso a un solo equipo, se tiene la clave que compromete a todos los de la red.
Actualmente, por los problemas descritos se aconseja utilizar algún otro método de los disponibles, recurriendo solo a este sistema si no existiera ninguna alternativa viable y procurando acompañarlo de algún otro protocolo de encriptación general como puede ser IPsec o SSL.
La principal característica es que existe un solo punto donde almacenar todas las credenciales y usuarios y que este sistema será el responsable último de asignar el tipo de acceso de cada uno. Así pues, el servidor RADIUS podrá llevar a cabo labores AAA (Athentication, Authorization and Accounting, o lo que es lo mismo, Autentificación, Autorización y Registro) de forma centralizada lo que facilita y abarata el mantenimiento y control de la red y los usuarios.
Al disponer de un servidor RADIUS ya no se dispone de una sola clave para garantizar el acceso a cualquier usuario de la red, si no que las credenciales dependerán de cada usuario, lo cual permitirá entre otras cosas levar un registro de los accesos a la red y la asignación de diferentes privilegios y niveles acceso dependiendo del usuario.
Así mismo se incrementa la seguridad del sistema, pues las claves ya no residen el punto de acceso, que es el extremo de la red, si no en un servidor dedicado cuyo nivel de seguridad es mayor. También se solventa el problema de robos de claves o credenciales, puesto que, al ser únicas por cada usuario, la sustracción de una solo será significativa para el usuario afectado, y no para el resto e usuarios de la red. Bastará con cambiar las credenciales de ese usuario o bloquearlo para restablecer la seguridad en la red, sin afectar en el proceso al resto de clientes como ocurre en las arquitecturas de clave única.

   Seguridad mediante controlador de puntos de acceso

El uso de un controlador de puntos de acceso, no solo facilita la gestión y mantenimiento de una red Wi-Fi, si no que puede servir así mismo para aumentar su seguridad. Las posibilidades que proporciona un controlador dependerán del fabricante y modelo, pues no hay un estándar, siendo algunas de las más interesantes:
  • Firewall (cortafuegos): Es habitual que los controladores implementen funcionalidades de firewall, que permitan controlar el tráfico que pasa de la red cableada a la red Wi-Fi, en base a direcciones de origen o destino, aplicaciones, servicios, etc. El firewall es también un elemento importante en la defensa ante ataques de denegación de servicio (DoS)
  • Comunicación por túnel: Si se dispone de esta capacidad, el controlador creara un túnel con cada uno de los puntos de acceso. Dentro de ese túnel (normalmente un encapsulamiento IP o SSL) se transmitirá el tráfico de los clientes desde el punto de acceso al controlador. Esto permite que los clientes Wi-Fi, potencialmente inseguros, no tengan acceso a la red directamente, si no que todo el tráfico deberá pasar por el controlador, el cual, según las políticas asignadas a cada tráfico por la funcionalidad de firewall en éste incluida, denegará o permitirá el acceso a partes o toda la red.
  • La tunelización del tráfico también proporciona la posibilidad de que los puntos de acceso estén conectados a segmentos de red diferentes, ya que de este modo el tráfico de los clientes siempre accederá a la red por el mismo punto de ésta, aquel al que este conectado el controlador. Además, si el túnel se realiza con un protocolo seguro como SSL, la comunicación entre los puntos de acceso y el consolador podrá hacerse a través de redes de terceros o incluso Internet, lo que permite la extensión de la red inalámbrica a zonas remotas atravesando redes inseguras sin exponer el trafico propio.
  • Gestión por usuario: En conjunción con un servidor de autentificación, ya sea este interno al controlador o un servidor RADIUS externo, será posible asignar diferentes acceso a los usuarios en función de sus credenciales, de una manera más detallada y compleja que si el proceso lo llevara a cabo el punto de acceso. Así pues podrán asignarse a diversas redes, concederles accesos a diferentes servicios, etc.
  • Gestión del ancho de banda: El controlador podrá ofrecer una funcionalidad por la cual regulará el ancho de banda disponible en función de la aplicación o usuario que desee hacer uso de ella. Así pues, podrá favorecerse el tráfico de voz sobre el de datos, evitando la saturación y bloqueo de la red Wi-Fi por aplicaciones abusivas como descargas de ficheros, o priorizar el tráfico de la dirección con respecto a los empleados o alumnos.
  • Localización espacial: Un controlador puede ofrecer un servicio de localización. Puesto que tiene control de los diferentes puntos de acceso, puede monitorizar los clientes y la potencia de recepción de estos por cada uno de los puntos de acceso. Si el Controlador tiene conocimiento de la situación espacial de los puntos de acceso, triangulando la posición con respecto a los distintos puntos de acceso en base a la potencia recibida por estos, podrá obtener la posición del cliente. Aunque esta posición no sea completamente exacta, sí será importante a la hora de localizar equipos, no solo para la gestión física de estos, si no para encontrar a los atacantes o intrusos de una red.
  • Limitación física del alcance de la red: Aunque la propagación de la señal de radiofrecuencia no se puede acotar de forma efectiva en el espacio, un controlador que disponga del servicio de localización, podrá denegar el acceso a la red a aquellos equipos cuya red se encuentre fuera de los limites de aquello que se le indique como zona de cobertura. Es de indicar que con este método los clientes fuera de la zona de cobertura de la red seguirán recibiendo la señal, con lo que podrían intentar otros medios de ataque a esta si la encriptación no es adecuada, pero no podrán conectarse a la red. Esta funcionalidad es útil cuando se quiere dar cobertura Wi-Fi a un edificio pero se desea prevenir que clientes presentes fuera del edificio pedan conectarse a esta como intrusos, por otra parte difíciles de localizar al estar ubicados en zonas sobre las que no se tiene control físico.

   WIPS (Wireless Intrusion Prevention System)

Un WIPS es un conjunto de equipos de red, que como su mismo nombre indica tienen como objetivo prevenir y detectar intrusiones en la red Wi-Fi (las siglas traducidas significan sistema de prevención de intrusión inalámbrica).
Un sistema WIPS siempre se compone de tres parte lógicas: los sensores que recogerán los datos de la red, el servidor que recolectará los datos de los distintos sensores, los analizara y relacionará, y la consola que utilizará el personal encargado de la seguridad de la red para acceder a los datos y visualizar las alarmas. Estos tres bloques lógicos no siempre están separados físicamente, pues es habitual que el servidor implemente un servidor WEB que sea el utilizado para acceder a sus datos y configuraciones a través de un navegador.
No siempre un WIPS es un sistema independiente, en algunos sistemas esta funcionalidad esta incluida en el controlador de puntos de acceso, que hará la función de servidor, que en conjunción con los puntos de acceso, que harán las funciones de sensores, pueden llevar a cabo parte de las funciones que realizaría un WIPS dedicado.
Un WIPS monitoriza el espectro radioeléctrico de la red Wi-Fi con el objeto de detectar ataques de diversa índole, como pueden ser:
  • Puntos de acceso infiltrados: Uno de los ataques mas efectivos suele ser la infiltración de un punto de acceso, el cual puede asociar clientes de la red, obteniendo por tanto datos de estos, que transmitirán creyendo estar conectados a la red legal. También, en caso de conectarlo a la red cableada, puede ser un punto de entada a la red de cualquier intruso, que podrá acceder a distancia y por tanto será difícil de localizar.
  • El WIPS puede detectar estos puntos de acceso infiltrados, usando técnicas simples como un conteo de los puntos de acceso que detecta, hasta algunas mas complejas que implican relacionar la dirección MAC de cada punto con la potencia que de ellos recibe. En caso de que se reciba información de la misma MAC con una potencia diferente, significaría que o bien se ha cambiado de localización el punto de acceso, lo cual no suele ser habitual, o que un nuevo punto de acceso, en una localización diferente, ha intentado suplantar al equipo legal.
  • Una vez detectado el equipo infiltrado el WIPS lo notificará al administrador de la red, y en algunos sistemas permitirá habilitar contramedidas que bloqueen al punto de acceso infiltrado, por ejemplo, suplantando su dirección (MAC spoofing) o interfiriéndole.
  • Ataques de denegación de servicio (DoS): Puesto que monitoriza la actividad es capaz de detectar un comportamiento inusual de los clientes, identificándolo, si es el caso, con ataques de denegación de servicio.
  • Puntos de acceso mal configurados: Puede detectar conversaciones entre puntos de acceso y los clientes, sobre todo en el momento de la asociación y negociación de la encriptación a usar, detectando parámetros y configuraciones erróneas. Pero incluso de forma más temprana, mediante la información emitida en los paquetes de beacon puede avisar de fallos en la configuración de puntos de acceso.
  • Clientes mal configurados: Un cliente cuyos intentos de conexión a la red sean denegados de forma repetitiva, será detectado como un fallo de configuración de dicho cliente, o dependiendo el caso, como el intento de conexión de un atacante, que, especialmente en los casos en que intente averiguar las claves de la red mediante métodos de fuerza bruta, provocara muchos intentos de conexión denegados por la red.
  • Conexiones no autorizadas: Si en WIPS tiene una lista de los clientes autorizados, podrá detectar la conexión de los clientes no autorizados, ya sean meros intentos de conexión o clientes que han entrado con éxito en la red.
  • Redes ad-hoc: Es muchos escenarios, una red ad-hoc es un punto de vulnerabilidad importante. La red gestionada del tiempo infraestructura puede disponer de diferentes mecanismos de protección, pero una red ad-hoc, puede ser creada involuntariamente, por un error de configuración, un troyano, etc. lo que crea un agujero de seguridad que puede tener consecuencias importantes. El WIPS, mediante la monitorización de los canales Wi-Fi, podrá detectar este tipo de redes y asociaciones, pudiendo indicar así mismo el equipo que crea dicha red y que esta creando la vulnerabilidad.
  • Mac spoofing: recibe este nombre el ataque que consiste en suplantar la dirección MAC de otro equipo. Esto, en el caso de una red Wi-Fi, permite ganar el acceso a la red en aquellas que tengan implementada una autorización de clientes basada en sus direcciones de red. Un WIPS podrá detectar dos señales diferentes con la misma dirección MAC, evidenciando este tipo de ataque.
  • Ataques “evil twin”/”honeypot”: Este tipo de ataques consiste en realizar un phishing de un hotspot, es decir, insertar un punto de acceso que muestra al usuario el mismo interfaz que mostraría un hotspot (puntos de acceso a Internet publico que mediante un portal permiten acceso a servicios diversos, como por ejemplo los existentes en los aeropuertos para acceso a Internet mediante pago). Como consecuencia de esto, el cliente no notará diferencia entre el punto de acceso legal y el insertado, y procederá a hacer uso de este. El negocio para el atacante proviene de que los hotspot solicitan al cliente un usuario y clave para acceder al servicio o un pago en el momento mediante tarjeta de crédito, datos que el atacante podrá capturara para su posterior uso fraudulento.
  • Ataques “man-in-the-midle”: Este es un tipo de ataque en el cual, el atacante se posiciona entre el cliente y el servicio que ha de utilizar. Así en una red Wi-Fi, este ataque consistiría en que el cliente se conecta al sistema del atacante, gracias a algún engaño por parte de este, y el sistema del atacante a su vez reenvía los datos al punto de acceso legal. De esta forma el cliente no ser percatará de que no esta conectado a la red directamente, pues todo parece funcionar perfectamente, pero el atacante tiene acceso a todos los datos del cliente, puesto que pasan por su sistema. El mayor peligro de este tipo de ataque es que el intruso puede variar la información que envía el cliente, substituyéndola por aquellos datos que para es sean más interesantes, no percatándose de ello ni el cliente ni la red o los servidores en caso de no existir sistemas de seguridad como un WIPS, IDS, IPS..

Seguridades en Redes de Area Local



Uno de los problemas de este tipo de redes es precisamente la seguridad ya que cualquier persona con una terminal inalámbrica podría comunicarse con un punto de acceso privado si no se disponen de las medidas de seguridad adecuadas. Dichas medidas van encaminadas en dos sentidos: por una parte está el cifrado de los datos que se transmiten y en otro plano, pero igualmente importante, se considera la autenticación entre los diversos usuarios de la red. En el caso del cifrado se están realizando diversas investigaciones ya que los sistemas considerados inicialmente se han conseguido descifrar. Para la autenticación se ha tomado como base el protocolo de verificación EAP (Extensible Authentication Protocol), que es bastante flexible y permite el uso de diferentes algoritmos.
Pretendemos aquí dar, a modo de ejemplo, unos cuantos consejos tomados de publicaciones del sector que se deben tener en cuenta cuando se planifica la seguridad de la red de una corporación:
- La seguridad y la complejidad suelen guardar una relación de proporcionalidad inversa, es decir, a mayor seguridad, se simplifican los procedimientos, ya que la seguridad es limitadora de las posibilidades.
- Además, la educación de los usuarios de la red debe ser lo más intensa posible.
- La seguridad y la facilidad de uso suelen guardar frecuentemente una relación de proporcionalidad inversa; por tanto, resulta conveniente concentrarse en reducir el riesgo, pero sin desperdiciar recursos intentando eliminarlo por completo, lo que es imposible.
- Un buen nivel de seguridad ahora es mejor que un nivel perfecto de seguridad nunca.
- Por ejemplo, se pueden detectar diez acciones por hacer; si de ellas lleva a cabo cuatro, el sistema será más seguro que si se espera a poder resolver las diez.
- Es mejor conocer los propios puntos débiles y evitar riesgos imposibles de cuantificar.
- La seguridad es tan potente como su punto más débil, por lo que interesa centrarse en estos últimos puntos.
- Lo mejor es concentrase en amenazas probables y conocidas.
- La seguridad no es un gasto para la empresa, sino que debe ser considerada como una inversión.
Al plantearse el diseño de la seguridad de la red a la luz de los consejos anteriores, hay que seguir una serie de pasos, entre los que destacan los siguientes:
- Evaluar los riesgos que corremos.
- Definir la política fundamental de seguridad de la red.
- Elegir el diseño de las tácticas de seguridad.
- Tener previstos unos procedimientos de incidenciasrespuesta, etcétera.


viernes, 17 de agosto de 2012

Conectividad..!!!

CONECTIVIDAD

Conexiones WI-FI (Inalambrica) 

La conectividad inalámbrica ya es una realidad que se ha propagado como un virus por todo el mundo, y que continúa expandiéndose a territorios desconocidos.
WI-FI cuenta con elevadas prestaciones, pero a muy altos precios, los que se justifican por la libertad de movimiento y rapidez de implementación que proporcionan. IrDa y Bluetooth son las tecnologías más baratas y fáciles de manejar, aunque resultan también las más lentas y de menor alcance, ya que los equipos de ámbito doméstico y de oficina son sus principales aplicaciones. La segunda es una tecnología de norma abierta para conexiones inalámbricas de corto alcance (10 m), entre un sin número de aparatos con esta capacidad.
Cuando hablamos de WIFI nos referimos a una de las tecnologías de comunicación inálambrica mediante ondas más utilizada hoy en día. WIFI, también llamada WLAN (wireless lan, red inalámbrica) o estándar IEEE 802.11. WIFI no es una abreviatura de Wireless Fidelity, simplemente es un nombre comercial.
De hecho, son su velocidad y alcance (unos 100-150 metros en hardaware asequible) lo convierten en una fórmula perfecta para el acceso a internet sin cables.

  • Dispositivos WI-FI..!!
Existen varios dispositivos Wi-Fi, los cuales se pueden dividir en dos grupos: Dispositivos de Distribución o Red, entre los que destacan los routers, puntos de acceso y Repetidores; y Dispositivos TerminalesPCI) o bien USB. que en general son las tarjetas receptoras para conectar a la computadora personal, ya sean internas (tarjetas

                                                                  
  • Dispositivos de Distribución o Red:
    • Los puntos de acceso son dispositivos que generan un "set de servicio", que podría definirse como una "Red Wi-Fi" a la que se pueden conectar otros dispositivos. Los puntos de acceso permiten, en resumen, conectar dispositivos en forma inalámbrica a una red existente. Pueden agregarse más puntos de acceso a una red para generar redes de cobertura más amplia, o conectar antenas más grandes que amplifiquen la señal.
    • Los router inalámbricos son dispositivos compuestos, especialmente diseñados para redes pequeñas (hogar o pequeña oficina). Estos dispositivos incluyen, un Router (encargado de interconectar redes, por ejemplo, nuestra red del hogar con internet), un punto de acceso (explicado más arriba) y generalmente un switch que permite conectar algunos equipos vía cable. Su tarea es tomar la conexión a internet, y brindar a través de ella acceso a todos los equipos que conectemos, sea por cable o en forma inalámbrica.
    • Los repetidores inalámbricos son equipos que se utilizan para extender la cobertura de una red inalámbrica, éstos se conectan a una red existente que tiene señal más débil y crean una señal limpia a la que se pueden conectar los equipos dentro de su alcance.
  • Los dispositivos terminales abarcan tres tipos mayoritarios: tarjetas PCI, tarjetas PCMCIA y tarjetas USB:
    • Las tarjetas PCI para Wi-Fi se agregan (o vienen de fábrica) a los ordenadores de sobremesa. Hoy en día están perdiendo terreno debido a las tarjetas USB. Dentro de este grupo también pueden agregarse las tarjetas MiniPCI que vienen integradas en casi cualquier computador portátil disponible hoy en el mercado.
    • Las tarjetas PCMCIA son un modelo que se utilizó mucho en los primeros ordenadores portátiles, aunque están cayendo en desuso, debido a la integración de tarjeta inalámbricas internas en estos ordenadores. La mayor parte de estas tarjetas solo son capaces de llegar hasta la tecnología B de Wi-Fi, no permitiendo por tanto disfrutar de una velocidad de transmisión demasiado elevada
    • Las tarjetas USB para Wi-Fi son el tipo de tarjeta más común que existe en las tiendas y más sencillo de conectar a un pc, ya sea de sobremesa o portátil, haciendo uso de todas las ventajas que tiene la tecnología USB. Hoy en día puede encontrarse incluso tarjetas USB con el estándar 802.11N (Wireless-N) que es el último estándar liberado para redes inalámbricas.
    • También existen impresoras, cámaras Web y otros periféricos que funcionan con la tecnología Wi-Fi, permitiendo un ahorro de mucho cableado en las instalaciones de redes y especialmente, gran movilidad.
En relación con los drivers, existen directorios de "Chipsets de adaptadores Wireless".

  • Ventajas y desventajas..!!
Las redes Wi-Fi poseen una serie de ventajas, entre las cuales podemos destacar:
  • Al ser redes inalámbricas, la comodidad que ofrecen es muy superior a las redes cableadas porque cualquiera que tenga acceso a la red puede conectarse desde distintos puntos dentro de un rango suficientemente amplio de espacio.
  • Una vez configuradas, las redes Wi-Fi permiten el acceso de múltiples ordenadores sin ningún problema ni gasto en infraestructura, no así en la tecnología por cable.
  • La Wi-Fi Alliance asegura que la compatibilidad entre dispositivos con la marca Wi-Fi es total, con lo que en cualquier parte del mundo podremos utilizar la tecnología Wi-Fi con una compatibilidad total.
Pero como red inalámbrica, la tecnología Wi-Fi presenta los problemas intrínsecos de cualquier tecnología inalámbrica. Algunos de ellos son:
  • Una de las desventajas que tiene el sistema Wi-Fi es una menor velocidad en comparación a una conexión con cables, debido a las interferencias y pérdidas de señal que el ambiente puede acarrear.
  • La desventaja fundamental de estas redes existe en el campo de la seguridad. Existen algunos programas capaces de capturar paquetes, trabajando con su tarjeta Wi-Fi en modo promiscuo, de forma que puedan calcular la contraseña de la red y de esta forma acceder a ella. Las claves de tipo WEP son relativamente fáciles de conseguir con este sistema. La alianza Wi-Fi arregló estos problemas sacando el estándar WPA y posteriormente WPA2, basados en el grupo de trabajo 802.11i. Las redes protegidas con WPA2 se consideran robustas dado que proporcionan muy buena seguridad. De todos modos muchas compañías no permiten a sus empleados tener una red inalámbrica. Este problema se agrava si consideramos que no se puede controlar el área de cobertura de una conexión, de manera que un receptor se puede conectar desde fuera de la zona de recepción prevista
  • Hay que señalar que esta tecnología no es compatible con otros tipos de conexiones sin cables como Bluetooth, GPRS, UMTS etc.   


Conexion por Cables
Mientras que las tecnologías vistas hasta aquí utilizan el cable del teléfono tradicional, esta utiliza un cable de fibra óptica que tiene que ser instalado de nuevo, salvo que ya estuviese instalado para ver la televisión por cable. La compañía suministradora instala el cable coaxial, similar al de la antena de televisión, hasta el interior del domicilio donde se conecta a un cable-módem. Y éste se conecta a una tarjeta de red ethernet que hay que instalar en el ordenador.
Las velocidades de conexión en España suelen ir desde 2 Mbps las más bajas hasta 50 Mbps las más altas. Por este cable se puede enviar también señales de televisión, por lo que las compañías ofrecen también este servicio. Para poder utilizar este tipo de conexión hay que vivir en un lugar donde exista una compañía que suministre este servicio.
En España, actualmente se está instalando el cable en la mayoría de las provincias, aunque todavía no llega a todas las localidades. Los encargados de esto son Ono, Euskaltel.

Igual que sucede con ADSL, al encender el ordenador ya estamos conectados, directamente podemos hacer clic en el navegador para entrar en Internet, sin tener que esperar a que se efectúe la llamada telefónica, como sucede con el módem de RTB.

Dispositivos..!!
Las comunicaciones serie más comunes en redes de ordenadores son las conexiones de los puertos serie con módems. Por ello, estudiaremos estos conectores serie y las señales de cada una de sus líneas tomando como ejemplo la comunicación ordenador-módem.
El módem es un elemento intermedio entre el equipo terminal de datos ETD y la línea telefónica. Por tanto, hay que definir el modo en que el módem se conectará tanto a la línea telefónica como al ETD.
Los módems se conectan a la línea telefónica a través de una clavija telefónica. En algunos casos se permite un puente para que no quede interrumpida la línea telefónica y se proporcione servicio a un teléfono.
En este caso la conexión consiste en tender la línea telefónica hasta la entrada telefónica de línea del módem, y luego tender otro cable telefónico desde la salida de teléfono del módem hasta el propio teléfono.
En cuanto a su conexión con el ETD, se han definido varios estándares de conectividad. Los más comunes son los propuestos por la norma RS-232 o la recomendación V.24, que definen cómo debe ser el interfaz de conexión.
 
Las conexiones de Internet por cable le permiten permanecer conectado a Internet de manera permanente. No se debe esperar a que se establezca la conexión con el proveedor de servicios porque ya se está conectado directamente al mismo.
Ya está disponible en varias ciudades de Francia (París, Lyon, Niza, Le Mans, Annecy, Strasbourg...). 

Ventajas..!!
  • La conexión se paga por mes y no por minuto, lo que hace que el costo se reduzca.
  • Generalmente la velocidad es mayor que la del módem.

¿Qué hardware se necesita para una conexión por cable?

Para acceder a esta tecnología se debe contar con:
  • Cable
  • Un proveedor de servicios por cable
  • Un cable módem

El cable módem es un dispositivo que permite acceder a Internet a través de la red de distribución del cable.
Existen dos tipos de conexión: un tipo de conexión coaxial (al cable) y un tipo de conexión Ethernet RJ45 (a la tarjeta de interfaz de red del equipo).
En teoría, se pueden alcanzar velocidades de 10 Mbps sin embargo, este ancho de banda se comparte de acuerdo a una estructura arbórea que conecta al usuario con el operador. Por lo tanto, puede ser que el usuario comparta (lo que probablemente suceda) su ancho de banda con todas las personas del edificio, o sea que si todos los vecinos descargan videos, el rendimiento se verá afectado. 


Conexiones Servicios 

Fibra Optica..!! 

Los circuitos de fibra óptica son filamentos de vidrio (compuestos de cristales naturales) o plástico (cristales artificiales), del espesor de un pelo (entre 10 y 300 micrones). Llevan mensajes en forma de haces de luz que realmente pasan a través de ellos de un extremo a otro, donde quiera que el filamento vaya (incluyendo curvas y esquinas) sin interrupción.
Las fibras ópticas pueden ahora usarse como los alambres de cobre convencionales, tanto en pequeños ambientes autónomos (tales como sistemas de procesamiento de datos de aviones), como en grandes redes geográficas (como los sistemas de largas líneas urbanas mantenidos por compañías telefónicas).

Ventajas
- La fibra óptica hace posible navegar por Internet a una velocidad de dos millones de bps.
- Acceso ilimitado y continuo las 24 horas del día, sin congestiones.
- Video y sonido en tiempo real.
- Es inmune al ruido y las interferencias.
- Las fibras no pierden luz, por lo que la transmisión es también segura y no puede ser perturbada.
- Carencia de señales eléctricas en la fibra.
- Presenta dimensiones más reducidas que los medios pre-existentes.
- El peso del cable de fibras ópticas es muy inferior al de los cables metálicos.
- La materia prima para fabricarla es abundante en la naturaleza.
- Compatibilidad con la tecnología digital.

Desventajas
- Sólo pueden suscribirse las personas que viven en las zonas de la ciudad por las cuales ya esté instalada la red de fibra óptica.
- El coste es alto en la conexión de fibra óptica, las empresas no cobran por tiempo de utilización sino por cantidad de información transferida al computador, que se mide en megabytes.
- El coste de instalación es elevado.
- Fragilidad de las fibras.
- Disponibilidad limitada de conectores.
- Dificultad de reparar un cable de fibras roto en el campo.
Nuevas Características de la Fibra Óptica.
Coberturas más resistentes:
La cubierta especial es extruida a alta presión directamente sobre el mismo núcleo del cable, resultando en que la superficie interna de la cubierta del cable tenga arista helicoidales que se aseguran con los subcables.
La cubierta contiene 25% más material que las cubiertas convencionales.

Radio enlace..!!

Hoy en día los sistemas inalámbricos nos rodean por todas partes. A los ya habituales sistemas de telefonía móvil, se unen las redes de datos inalámbricas, la televisión digital terrestre o los radioenlaces punto a punto. Para el correcto funcionamiento de estos sistemas resulta crucial un diseño adecuado del interfaz radioeléctrico. El diseño de radioenlaces es una disciplina que involucra toda una serie de cuestiones tales como la elección de la banda de frecuencias, el tipo de antenas y los equipos de radiocomunicación, el cálculo del balance de potencias, la estimación de los niveles de ruido e interferencia o el conocimiento de las distintas modalidades y fenómenos de propagación radioeléctrica, entre otras. Debido a su gran variedad, en este artículo haremos mención solamente a algunas de estas cuestiones.

Además de la elección de los equipos de radio y de sus parámetros de funcionamiento, los factores más importantes que determinan las prestaciones de un sistema fijo de acceso inalámbrico son la buena situación de las antenas, la correcta planificación del enlace radioeléctrico y la elección de un canal libre de interferencias. Sólo con una buena planificación del enlace entre antenas puede conseguirse evitar las interferencias y los desvanecimientos de la señal, alcanzando una alta disponibilidad en el sistema.

La planificación del enlace radioeléctrico de un sistema de radiocomunicaciones comienza con el cálculo del alcance. Para ello se deben conocer la banda de frecuencias, las características climáticas de la zona y las especificaciones técnicas de los equipos de radio: potencia del transmisor, ganancia de las antenas, sensibilidad del receptor, tasa de error, disponibilidad, etc. Este cálculo del alcance del sistema constituye una primera estimación teórica que deberá verificarse tras la instalación de los equipos. La utilización de aplicaciones informáticas de simulación con cartografías digitales del terreno y de los edificios constituye una potente herramienta de ayuda en la planificación. Valiéndose de las mismas es posible determinar las mejores localizaciones para instalar las antenas y estimar su alcance o cobertura, así como los posibles niveles de interferencia que provienen de otros emplazamientos vecinos, especialmente en el caso de sistemas celulares o de acceso radio punto a multipunto. Posteriormente, las visitas a los posibles emplazamientos permite determinar su aptitud para albergar los equipos de radiocomunicaciones.

Las frecuencias utilizadas habitualmente por los radioenlaces fijos exceden de 10 GHz. Por lo tanto, estos sistemas se incluyen dentro de la categoría de sistemas terrenales con visión directa (LOS, Line-Of-Sight). La característica de visibilidad directa o LOS proviene de la dificultad de las señales de radio de alta frecuencia para propagarse bordeando esquinas o para difractarse en torno a obstáculos. Es decir, debe existir un camino directo sin obstáculos para la propagación de la señal radio entre las antenas transmisora y receptora. Si desde el emplazamiento de una de las antenas puede verse la otra, entonces se dice que existe visión directa. Normalmente, suelen visitarse los posibles emplazamientos y comprobarse la existencia de visión directa como fase previa a la instalación de los equipos de comunicaciones. En el caso de enlaces de corto alcance, la visión directa puede limitarse simplemente a una cuestión de qué altura deben tener las torres o mástiles donde se sitúen las antenas. Sin embargo, es evidente que ello no constituye la solución más sencilla o económica. En cambio, resulta más práctico la búsqueda de zonas geográficas prominentes con buena visibilidad o edificios altos, lugares ideales para la instalación de estaciones base que deben concentrar el tráfico de múltiples enlaces punto a punto. Ahora bien, las antenas no siempre se encuentran en edificios altos, y lo que ocurre más a menudo, ambos extremos del enlace es difícil que se encuentren simultáneamente en lugares favorables.

Para comprobar la existencia de visión directa entre las antenas, deben visitarse los emplazamientos donde se tiene previsto instalarlas y realizar una serie de comprobaciones y tareas que se detallan a continuación:

  • Determinación de las coordenadas exactas de los extremos del radioenlace (latitud, longitud y altura sobre el terreno) ayudándose de un receptor GPS o smartphone.
  • Determinación de la orientación del enlace e indicación sobre un mapa de la zona. Esto ayudará a la localización de posibles obstáculos y elementos significativos sobre el mapa.
  • En el caso de enlaces de corto y medio alcance se puede comprobar la existencia de visión directa con ayuda de unos prismáticos. La localización visual del otro extremo del enlace puede realizarse con ayuda de una brújula o valiéndose de alguna marca o elemento significativo del mapa. Se debe tener cuidado con los campos magnéticos generados por los motores de las salas de máquinas de los ascensores de la azotea y que pueden falsear la lectura de la brújula. Si no se consiguiera identificar visualmente el otro edificio donde se va a situar la antena, puede servir de ayuda una segunda persona situada en dicho edificio y que emita algún tipo de destello de luz, con un espejo por ejemplo, en el caso de un día soleado.
  • En el caso de falta de visión directa debido a algún tipo de obstáculo, resulta necesario determinar la altura del mástil para evitar la obstrucción. El procedimiento que suele emplearse es similar al anterior, solo que ahora puede utilizarse por ejemplo un globo de helio de color llamativo y sujeto por una cuerda. Una persona situada en el extremo opuesto va elevando el globo hasta que resulte visible a través de los prismáticos.
  • Una vez asegurada la visión directa, conviene comprobar que la primera zona de Fresnel se encuentra libre de obstáculos. En este caso conviene prever que el entorno resulta cambiante con el tiempo y con la época del año: construcción de nuevos edificios, árboles que crecen, nieve que se acumula en los tejados en invierno, tráfico aéreo, etc. Adicionalmente, se debe asegurar que no existe ningún obstáculo cerca de la posición de ambas antenas. En especial, superficies metálicas u otras antenas transmisoras dirigidas hacia la nuestra. Resulta interesante documentar todas las comprobaciones por medio de fotografías que puedan ayudar posteriormente.
Lamentablemente,en el caso de radioenlaces de más de unos 8 km resulta difícil realizar este tipo de comprobaciones visualmente, por lo que se debe acudir a otros métodos. La solución consiste en conseguir mapas con perfiles de la zona o utilizar aplicaciones informáticas con mapas digitales del terreno. En este caso, las coordenadas exactas de los extremos del enlace resultan de vital importancia.


Un factor importante de degradación en sistemas que operan a altas frecuencias lo constituye la vegetación existente en las inmediaciones del radioenlace. En ciertas ocasiones, el radioenlace puede verse accidentalmente obstruido por árboles o incluso azoteas de edificios en entornos urbanos. En estos casos, el campo electromagnético presente en la antena receptora puede modelarse como la suma de la onda directa proveniente del transmisor, y multitud de pequeñas ondas dispersadas por los edificios adyacentes y por las hojas de los árboles cercanos. Dado que las fases de estas ondas son aleatorias, las señales resultantes pueden estimarse de forma estadística. El resultado final de sumar todas las contribuciones suele modelarse mediante una distribución de Nakagami-Rice.

En general, la gran variedad de edificios, tipos de terreno y vegetación a considerar en una determinada zona susceptible de instalar un sistema de radiocomunicaciones, hace que sea extremadamente difícil proporcionar reglas de diseño generales para estimar la cobertura. La utilización de herramientas informáticas de trazado de rayos y de modelado de obstáculos a partir de información preliminar sobre la zona reduce la complejidad de diseño del sistema. Sin embargo, la realización de mediciones experimentales es indispensable para validar los modelos y proporcionar confianza a los resultados de las predicciones.

Antenas..!!

Las antenas externas se conectan a los equipos wireless mediante un cable. Salvo que sea muy corto, lo normal es que el cable que une el dispositivo wireless con la antena sea un cable de tipo coaxial, similares a los de antena de televisión pero con una impedancia diferente. Hablamos de 50 ohmios en comparación a los 75 ohmios que suelen ser los típicos de televisión. Por lo tanto no valen los cables normales que se usan en los equipos para recepción de la televisión analógica terrestre o digital. Los cables coaxiales se caracterizan porque disponen de un conector central (normalmente denominado activo) rodeado de una malla metálica concéntrica que le protege de las interferencias que son muchas en el campo radioeléctrico en que operan habitualmente las tarjetas y los punto de acceso inalámbricos, El cable de televisión es un buen ejemplo de cable coaxial pero como ya hemos dicho no es valido para redes wireless.
 Para conectar el  cable a la antena y a los dispositivos inalámbricos , se utilizan los conectores. Tanto la antena como algunos equipos wirelessdisponen de un conector donde se deben enchufar sus correspondientes conectores de los extremos de cable. Para poder llevar a cabo esta operación, existen unos conectores conocidos como de tipo macho y otros como de tipo hembra. Es obvio que solo los conectores de distinto sexo pueden conectarse entre si. Por ejemplo, en la antena suele haber como ya hemos dicho anteriormente un conector de tipo hembra y en el cabe, uno de tipo macho. Esto permite conectar el cable a la antena.
 Tanto el cable, como cada conector, añaden perdidas a las señales de radio wireless. Para evitar estas perdidas, aparte de utilizar cables y conectores de calidad. hay que procurar utilizar un cable lo mas corto posible y el numero de conectores imprescindible. El numero de conectores dependerá de las tarjetas y antenas que dispongamos, la calidad dependerá de nuestro bolsillo y la longitud vendrá determinada por el tipo de cable que queramos usar, por lo caro que pueda valer, por la distancia a la antena, en definitiva por su perdida, imaginemos que tenemos una buen antena pero por estar demasiado lejos a la tarjeta wifi y debido a que nuestro presupuesto es limitado el tipo de cable es de los mas malos, posiblemente lleguemos a perder la ganancia obtenida en la antena. Por lo tanto valorar todos estos aspectos. Además intentar evitar en la medida que sea posible utilizar conectores para extender la longitud de cableo para adaptar diferentes tipos de cables o conectores. Reducirlo siempre a la máxima expresión y no hagáis nunca empalmes entre cables, si necesitamos uno mas largo, siempre es mejor adecuar la instalación con un cable nuevo aunque sea de menos perdida y por lo tanto de mayor calidad pero en contraposición mas caro.
Tipos de conectores.
 La utilización de los conectores parece muy sencilla, pero todo se complica por el hecho de que no existe una regulación que especifique como deben ser los conectores. Esto trae consigo que existan muchos modelos distintos de conectores. Algunos muy extendidos como los RP-SMA y otros específicos de un fabricante, los llamados conectores propietarios. Por ejemplo algunos usan conectores TNC, otros BNC, otros SMA y/o RP-SMA (SMA Reverse) y algunos conectores de diseño propio. El hecho se complica aun mas si tenemos en cuenta que el tipo de conector de la antena suele ser distinto del conector de la tarjetas inalámbricas. A partir de cierta potencia suelen ser del tipo N-Hembra.
 La mayoría de los equipos inalámbricos (adaptadores wireless y puntos de acceso, así como los routers inalámbricos, pero recordad que un router inalámbrico no es mas que un router normal al cual se le incorpora internamente un punto de acceso wireless) disponen de un conector para enchufar una antena externa. Los puntos de acceso mayormente viene ya con su propia antena integrada. Y respecto a las tarjetas; Las mas usuales con este tipo de conector son las que se ensamblas en un PC de sobremesa, o sea interfaz PCI. Lo normal seria que todos los equipos se comercializaran con un conector para poder conectarle una antena externa, pero como ya sabéis la mayoría de las tarjetas con interfaz USB y PCMCIA no cumplen con este requisito, y menos las tarjetas Mini-PCI que se incorporan en los portátiles. Y por consecuencia intentamos siempre manipular este tipo de equipos con el riesgo que ello conlleva.
 Los tipo de conectores mas comunes (aunque no todos validos para el mudo wireless) son lo siguientes:
 1.- N - Navy (marina)
 Es el conector mas habitual en las antenas de 2.4 GHz (recordad que esta frecuencia es la especifica para el estándar 802.11b/g, para el estándar 802.11a nos encontramos con la 5Ghz. Dicho estándar esta en desuso y en el mercado la mayoría de dispositivos se centran en el 802.11g. Trabaja bien con frecuencias de hasta 10GHz. Es un conector de tipo rosca. Estos conectores tiene un tamaño apreciable y, a veces se confunden con los conectores UHF. La gran diferencia es que estos últimos (los UHF) no son validos para frecuencia de 2.4GHz. Es muy raro y inusual encontrase tarjetas y punto de acceso con este tipo de conectores, al contrario que en las antenas. Es muy fácil de trabajar con el. Y muy útil para el montaje propio de antenas caseras, sobre todo el de tipo chasis para ensamblarlo en el cuerpo de la antena, y su alojamiento para soldar un trozo de cobre grueso que habitualmente se usa para montar la parte activa mas importante de la antena.
2.- BNC (Bayonet Navy Connector)
 Conector tipo bayoneta de la marina. Es un conector barato utilizado en las redes ethernet del tipo 10Base2. Es un tipo de conector muy común, pero poco apto para trabajar en la frecuencia de 2.4GHz.
3.- TNC (Threaded BNC)
 Conector BNC roscado. Es una versión roscada del conector BNC. Este tipo de conector es apto para frecuencias de hasta 12GHz.
4.- SMA (Sub-Miniature Connect)
 Conector subminiatura. Son unos conectores muy pequeños, van roscados y trabajan adecuadamente con frecuencias de hasta 18GHz. Dentro de este tipo, nos encontramos con una subclase que son los llamados reverse (RP-SMA), y estos últimos son las mas utilizados en la mayoría de las tarjetas inalámbricas con interfaz PCI.
5.- SMC
 Se trata de una versión todavía mas pequeña de los conectores SMA. Son aptos para frecuencias de hasta 10GHz. Su mayor inconveniente es que solo son utilizables con cables muy finos (con alta perdida). El conector SMB es una versión del SMC con la ventaja que se conecta y desconecta mas fácilmente.
6.- APC-7 (Amphenol Precision Connector)
 Conector Amphenol de precisión. Se trata de un conector con muy poca perdida, y muy caro, fabricado por la empresa que lleva su nombre (Amphenol). Tiene la particularidad de que no tiene sexo.
 El motivo fundamental y principal por lo que se utiliza una antena externa no es alejar la antena del equipo wireless, sino poder conseguir aumentar el alcance de este equipo. Esto quiere decir que, para instalar una antena externa, no se debe pensar en unir la antena con el equipo wifi con un largo cable, sino todo lo contrario. El cable introduce perdidas en la señal que van desde los 0.05 a 1dB por metro y a precios desde 1 a 50 euros por metro (dependiendo de la calidad del cable). POr lo tanto, a menor longitud del cable, menores perdidas. Hay instalaciones que idealmente esto no es así, es decir necesitamos mas longitud de cable para poder salvar un obstáculo muy grueso , por ejemplo una pared de hormigón armado de grueso considerable. Pero evitarlo en la medida que se posible, y determinar el tipo de cable mas adecuado para vuestra instalación y por supuesto apropiado para vuestra economía.
 Por otro lado, el cable tiene soldado o crimpado un conector en cada extremo. Como los conectores pueden encontrase en cualquier tienda especializada, cualquiera puede fabricarse un cable con sus respectivos conectores, lo que habitualmente llamamos pigtail. Sin embargo es recomendable comprar el cable completo por sus conectores ya puestos. La razón viene dada por el siguiente motivo, soldar o crimpar conectores y/o cables es un arte y una ciencia que requiere contar con experiencias para obtener resultados óptimos.
 Para comprar el cable, hay que asegurarse que sea optimo para la frecuencia de 2.4GHz. Un cable puede ser muy apropiado para se utilizado en aplicaciones de televisión y video y no ser adecuado para el mundo wireless. Elegir el cable adecuado es casi tan importante como elegir la antena adecuada. Todos los cables introducen perdidas, pero unos introducen mas perdidas que otros.
 Quizás, los cables mas usados en la frecuencia de wireless (wifi) sean los de tipo de LMR. Estos son unos cables fabricados por Times Microwave Systems (www.timesmicrowave.com). Una alternativa son los cables Heliax fabricados por Andrew Corporation (www.andrew.com). Estos son unos cables que introducen muy poca perdida a la señal pero a cambio de un alto coste. También podemos interesarnos por los cables fabricados por Belden

jueves, 16 de agosto de 2012

Anti-malware..!


Anti-malware

Se llama "Malware" a todo archivo con contenido de carácter malicioso para un equipo informático. Esto no se limita a los virus, pues existen otros muchos archivos capaces de causar daños importantes en un ordenador o en una red informática. Del mismo modo se llama "Antimalware" a aquel software que evita la infiltración en el sistema y el daño.
Bajo el término malware encontramos una amplia gama de amenazas:
  • Virus: destruyen información y se reproducen automáticamente.
  • Gusanos: se copian y se envían masivamente desde un ordenador infectado a todos los miembros de la lista de direcciones.
  • Troyanos: abren puertas de acceso a un hacker que puede realizar remotamente cualquier tipo de actividad en el equipo afectado.
  • Spyware: extraen información personal almacenada en un ordenador.
  • Phishing: Es el envío de correos electrónicos que, aparentando provenir de fuentes fiables (por ejemplo, de entidades bancarias), tratan de conseguir datos confidenciales del usuario. Suelen incluir un enlace que lleva a páginas web falsificadas. Así, el usuario, cree estar en un sitio de confianza e introduce la información que, en realidad, llega a manos del estafador.
  • Amenazas combinadas: Las últimas epidemias se han caracterizado por ataques combinados de varias amenazas a la vez o lo que se conoce como "blended threats".
  • Dialers: marcan números de teléfono de pago automáticamente y sin permiso del usuario.
  • Jokes: bromas que hacen perder el tiempo a los usuarios.
  • Otros riesgos.- Hay software que sin ser malware propiamente dicho, podría suponer un riesgo para la red de la compañía si llegase a ser utilizado.
    • Hacking tools son todas aquellas herramientas que se puedan utilizar para robar información, accesos no permitidos, etc.
    • Security risks son aplicaciones que suponen una amenaza clara para la seguridad, y que sin embargo no pueden ser catalogados como virus. Por ejemplo, un programa dedicado a la creación de virus o troyanos.
La protección Anti-malware de los appliances Panda GateDefender detiene todos los tipos de amenazas mencionados a nivel del perímetro. Esto significa que el código malicioso nunca llega a entrar en la red corporativa.

Combinación de protección proactiva y en tiempo real y protección reactiva

La protección del software Anti-malware de Panda GateDefender combina 2 potentes técnicas que proporcionan la protección más completa:
  • Inteligencia colectiva: automatiza la recogida, clasificación y detección de malware en tiempo real. La integración de la Inteligencia Colectiva aumenta de forma drástica la capacidad de protección y reduce el consumo de recursos al mínimo.
  • Fichero de identificadores: Protección reactiva basada en una lista de malware conocidos que se actualiza automáticamente cada 15 minutos.
La combinación de las técnicas proactivas y reactivas reduce la ventana de riesgo y convierte a los dispositivos perimetrales Panda en las protecciones más actualizadas de la red.

Funcionamiento de la protección Anti-malware

Puesta en marcha. Atraviesa las siguientes fases:
  • Instalación del Antimalware: configuración en 15 minutos como máximo, por la gran facilidad de uso de la consola de acceso.
  • Análisis y desinfección: tras la instalación, analiza de inmediato todo el tráfico entrante y saliente, ejecutando las acciones definidas por el administrador.
  • Actualización Incremental de firmas: Cada hora se descargan las nuevas firmas que se añaden al fichero de identificadores de malware, de manera automática y transparente para el usuario.
  • Actualización local: Es posible actualizar la protección contra un servidor local en lugar de a través de Internet para redes en entornos de seguridad restringida.
Destino del malware. El administrador decide las acciones a realizar ante el malware detectado:
  • Desinfectar el Malware: El fichero conteniendo el malware será desinfectado
  • Eliminar: Se elimina el fichero infectado
  • En caso de tratarse de un malware que llega adjunto a un correo SMTP se puede:
    • Eliminar el mensaje completo
    • Eliminar sólo el adjunto
Análisis. El administrador decide la configuración de la protección:
  • Protocolos a analizar: http, FTP, SMTP, POP3, IMAP4 y/o NNTP
  • Tipos de malware a detectar:
  • Sitios de confianza: Dominios internos que se excluyen del análisis Anti-malware, mejorando el rendimiento.

Beneficios del Antimalware 

  • Protección completa, proactiva y en tiempo real: Detiene todo tipo de malware antes de que entren en la red, mediante el análisis de los 7 protocolos de comunicación más utilizados (HTTP, HTTPS, FTP, SMTP, POP3, IMAP4 y NNTP).
  • Optimiza el ancho de banda y los recursos: Reduce la carga de trabajo de los servidores de la compañía, eliminando el tráfico innecesario en la red interna de la compañía y optimiza el uso del ancho de banda.
  • Impide daños en la reputación corporativa: Evita que se envíe malware desde el interior de la empresa y que se instalen programas que puedan hacerlo.

Malware..!

Malware

Malware es el acrónimo, en inglés, de las palabras "malicious" y "software", es decir software malicioso. Dentro de este grupo se encuentran los virus clásicos (los que ya se conocen desde hace años) y otras nuevas amenazas, que surgieron y evolucionaron, desde el nacimiento de las amenazas informáticas. Como malware, se encuentran diferentes tipos de amenazas, cada una con características particulares. Incluso existe malware que combina diferentes características de cada amenaza. Se puede considerar como malware todo programa con algún fin dañino.


Clasificación del Malware

Spyware
Gusanos
Los spyware o (programas espías) son aplicaciones que recopilan información del usuario, sin el consentimiento de este. El uso más común de estos aplicativos es la obtención de información respecto a los accesos del usuario a Internet y el posterior envío de la información recabada a entes externos.


Botnets
Gusanos
Un malware del tipo bot es aquel que está diseñado para armar botnets. Constituyen una de las principales amenazas en la actualidad. Este tipo, apareció de forma masiva a partir del año 2004, aumentando año a año sus tasas de aparición.

Phishing
Gusanos
El phishing consiste en el robo de información personal y/o financiera del usuario, a través de la falsificación de un ente de confianza. De esta forma, el usuario cree ingresar los datos en un sitio de confianza cuando, en realidad, estos son enviados directamente al atacante.


Spam
Gusanos
Se denomina spam al correo electrónico no solicitado enviado masivamente por parte de un tercero. En español, también es identificado como correo no deseado o correo basura.

Troyanos
Gusanos
El nombre de esta amenaza proviene de la leyenda del caballo de Troya, ya que el objetivo es el de engañar al usuario. Son archivos que simulan ser normales e indefensos, como pueden ser juegos o programas, de forma tal de "tentar" al usuario a ejecutar el archivo. De esta forma, logran instalarse en los sistemas. Una vez ejecutados, parecen realizar tareas inofensivas pero paralelamente realizan otras tareas ocultas en el ordenador.


Ransomware
Gusanos
El ransomware es una de las amenazas informáticas más similares a un ataque sin medios tecnológicos: el secuestro. En su aplicación informatizada, el ransomware es un código malicioso que cifra la información del ordenador e ingresa en él una serie de instrucciones para que el usuario pueda recuperar sus archivos. La víctima, para obtener la contraseña que libera la información, debe pagar al atacante una suma de dinero, según las instrucciones que este disponga.

Scam
Gusanos
Scam es el nombre utilizado para las estafas a través de medios tecnológicos. A partir de la definición de estafa, se define scam como el "delito consistente en provocar un perjuicio patrimonial a alguien mediante engaño y con ánimo de lucro; utilizando como medio la tecnología".

Rogue
Gusanos
Rogue es un software que, simulando ser una aplicación anti-malware (o de seguridad), realiza justamente los efectos contrarios a estas: instalar malware. Por lo general, son ataques que muestran en la pantalla del usuario advertencias llamativas respecto a la existencia de infecciones en el equipo del usuario. La persona, es invitada a descargar una solución o, en algunos casos, a pagar por ella. Los objetivos, según el caso, varían desde instalar malware adicional en el equipo para obtener información confidencial o, directamente, la obtención de dinero a través del ataque.

Gusanos
Gusanos
En términos informáticos, los gusanos son en realidad un sub-conjunto de malware. Su principal diferencia con los virus radica en que no necesitan de un archivo anfitrión para seguir vivos. Los gusanos pueden reproducirse utilizando diferentes medios de comunicación como las redes locales o el correo electrónico. El archivo malicioso puede, por ejemplo, copiarse de una carpeta a otra o enviarse a toda la lista de contactos del correo electrónico.


PayLoad
Gusanos
PayLoad es una función adicional que posee cierta amenaza en particular. La traducción exacta del inglés, es más precisa respecto a su definición: "carga útil". Refiere a acciones adicionales, incluidas en virus, gusanos o troyanos; como por ejemplo robo de datos, eliminación de archivos, sobre-escritura del disco, reemplazo del BIOS, etc.

Rootkit
Gusanos
Rootkit es una o más herramientas diseñadas para mantener en forma encubierta el control de una computadora. Estas pueden ser programas, archivos, procesos, puertos y cualquier componente lógico que permita al atacante mantener el acceso y el control del sistema.

Virus
Gusanos
Un virus es un programa informático creado para producir algún daño en el ordenador y que posee, además, dos características particulares: pretende actuar de forma transparente al usuario y tiene la capacidad de reproducirse a sí mismo.

martes, 7 de agosto de 2012

Sistemas de Informacion - Android - Tecnologia en la Educacion


EL CONTROL Y LOS SISTEMAS DE INFORMACIÓN
No puede haber planificación ni control si no se dispone de la información necesaria en tiempo y en forma . Es por ese motivo que las propuestas de modernización estatal siempre incluyen el uso de técnicas y métodos para procesar información en tiempo real. En general se busca articular las herramientas informáticas con la obtención de datos primarios y la estructura organizacional.
Como una primera aproximación a los sistemas de información, plantearemos una diferenciación entre los sistemas necesarios para la gestión operativa (sistemas “transaccionales”) y los sistemas que brindan información para planificar, tomar decisiones y controlar. Los comentarios que siguen se centrarán en estos últimos.
Hay varias maneras de nombrar a los sistemas de información: sistema de información organizacional, sistema de información y decisión, sistema de información de gestión, sistema de procesamiento de datos. En general, cabe decir que, ante el volumen y complejidad de los datos a procesar, es indispensable la incorporación de herramientas informáticas. Pero, en contra de una generalizada creencia, un sistema de información orientado hacia la planificación, la decisión ejecutiva y el control no es simplemente un conjunto de computadoras. Es un sistema de funciones y relaciones que vincula las herramientas informáticas, la organización, el personal capacitado, la comunidad a la que se sirve y la conducción del gobierno local. Técnicamente, lo esencial de ese sistema es la información, registrada, procesada y comunicada mediante computadoras, programas informáticos y técnicos idóneos.
El objetivo de toda información es describir y explicar situaciones reales mediante datos cuantitativos y cualitativos, numéricos, gráficos, conceptuales, relacionales, para direccionar la acción política en el marco de un contexto dinámico. Con respecto a la planificación y la toma de decisiones, la información cumple las siguientes funciones:
• Reduce el nivel de incertidumbre.
• Permite prever la aparición de problemas o desviaciones.
• Disminuye el tiempo de reacción ante nuevas situaciones.
• Eleva el nivel de racionalidad de las decisiones.
• Optimiza la eficacia y eficiencia de las acciones.
En un sistema de información, las diversas áreas de la organización procesan y suministran en forma sistemática y homogénea la información propia, compatible con la información del resto. El sistema vincula todos los datos y los pone a disposición de los usuarios / productores de información. Es fundamental esa sistematización, para asegurar la conectividad técnica (protocolos de comunicación, soft de soporte, medios magnéticos, etc.) y la conectividad funcional (que datos almacenar y que características deben tener).
Esa información debe fluir a través de una red o malla, con múltiples posibilidades de relación, en una comunicación multidireccional, con variados niveles de acceso y jerarquías de usuarios. También deben establecerse relaciones con otras organizaciones, para recibir y dar información.
Una buena base para los sistemas de información en el ámbito de la administración pública son los sistemas de información geográfica (SIG), que son bases de datos relativos al territorio y su dinámica, con reglas para su procesamiento y precisas “geo-referencias”. Sobre esa base, más los datos que genera la organización, se pueden elaborar indicadores de gestión, así como información sociodemográfica, económica y de infraestructura. En el caso de una gestión municipal, por ejemplo, se pueden distinguir dos tipos de información: sobre la ciudad y sobre la gestión. En un apretado resumen, la información procesada disponible suele referirse a los siguientes aspectos:
• Información sobre la ciudad:
Económica: Precios, actividad económica, recaudación, presión tributaria, poder adquisitivo, ocupación, desocupación, subocupación, etc.
Hábitat: Infraestructura, estructura vial, equipamiento social, desarrollo territorial, uso del suelo, transito y transporte, medio ambiente; demografía, vivienda, villas de emergencia, estado sanitario, pobreza, encuesta de hogares, seguridad.
• Información sobre la gestión:
General: Recursos humanos, materiales y financieros.
Sectorial: De cada una de las áreas de la organización.
Desarrollo urbano: Obras viales, señalización, iluminación, cloacas, gas, espacios verdes, arquitectura, planeamiento urbano.
Salud: Atención primaria, unidades primarias, unidades de mayor complejidad, servicio odontológico, control alimentario, bromatológico y ambiental.
Educación, cultura y turismo: Educación, actividad cultural, turismo, espectáculos públicos.
Administración general: Personal, imprenta, apoyo de gestión, Registro Civil, Cementerios.
Desarrollo social y participación vecinal: Guarderías, atención materno-infantil, hogares de ancianos, centros vecinales, centros de la tercera edad, deportes, recreación.
Medio ambiente: Polución y contaminación del aire, preservación del suelo, residuos tóxicos y contaminantes, sistema hidrológico, tratamiento de residuos.
La implantación de un sistema integrado de información, con frecuencia plantea inconvenientes, tales como: Reticencia a compartir información -Desparejo nivel de sistematización -Carácter político de la organización -Modalidades de la toma de decisiones -Variedad y dispersión de nomenclaturas y unidades -Hábitos de planificación “subjetiva” -Escepticismo ante la complejidad del sistema propuesto.
Para implantarlo con éxito hay que definir primero los objetivos del sistema y el nivel de detalle con que trabajará. Es importante aprovechar toda la información ya existente, sistematizada o no. Finalmente, hay que buscar que los sistemas entreguen resultados prácticos y tangibles.
Guillermo Inchauspe concluye afirmando que “este tipo de desarrollos tiene características técnico-políticas, donde es necesario combinar los conocimientos y metodologías específicas del desarrollo de sistemas informáticos con una cuota importante de “gerenciamiento”, que garanticen la efectiva y eficiente instalación y puesta en marcha.”
Los diversos tipos de control suelen definirse tomando como criterio de diferenciación el momento de la actividad general en que el control se realiza. Desde ese punto de vista se habla de:
• Control preliminar: Este tipo de control trata de prevenir la ocurrencia de problemas durante la posterior ejecución de las actividades. Es una verificación de los atributos, cantidades y disponibilidad de recursos necesarios, en relación con los niveles de actividad previstos. Las técnicas de control habituales en este tipo de control son: el proceso de selección (por ejemplo, la selección de candidatos para un puesto, a fin de prever su buen desempeño futuro); la inspección de materias primas y materiales necesarios (por ejemplo, la verificación de existencias y de calidad de los elementos para una campaña de vacunación); el presupuesto de capital (para saber, por ejemplo, cuanto dinero exigirá la ejecución de un proyecto y cada una de sus etapas o fases); y el presupuesto financiero (por ejemplo, para asegurar que las fuentes de financiación y el flujo de fondos acompañarán a la ejecución física de las actividades).
• Control concurrente: Este tipo de control se realiza “en paralelo” con la ejecución de las actividades y tiene por objeto la detección temprana de posibles desviaciones, y la verificación de la correcta ejecución de las mediciones de desempeño, con miras al control de resultados. También se incluye en este tipo de control la supervisión directa de la gerencia mediante observación personal y ocasionales intervenciones y directivas dadas en cada caso.
• El control de resultados: Es el más habitual, o por lo menos el que más se asocia con la idea general de la función de control. Se realiza una vez finalizada la actividad (por ejemplo, al terminar la ejecución de un proyecto) o al cabo de un determinado período de tiempo (por ejemplo, los balances o inventarios anuales). Son datos definitivos, que nos informan sobre la medida en que se alcanzaron los objetivos del proyecto o del período que abarca el ejercicio. Este último caso permite también medir la evolución en períodos sucesivos. Es un procesamiento de datos históricos, cuya finalidad última es corregir el futuro.
Las técnicas más usuales en este tipo de control son los presupuestos, los costes estándar, los estados financieros, el control de calidad de los productos terminados, la evaluación del desempeño de los empleados, etc. En el caso de los servicios, públicos o privados, debido a su carácter intangible, es frecuente acudir como fuente de información a las encuestas de satisfacción de los clientes o ciudadanos.
En todo proceso administrativo , hay que hacer de los datos la base de las decisiones y las acciones. Hay que discutir las cuestiones a partir de datos, de hechos. Usar índices numéricos permite, en muchos casos, comprender la situación actual, basar los planes de futuro, medir los avances, determinar las prioridades, solicitar los medios necesarios, determinar a priori las consecuencias probables de los cambios, comparar resultados, informar a los interesados, reconocer los méritos y apoyar el compromiso de los empleados y directivos.
Los datos recogidos no deben ser necesariamente muchos, sino significativos; registrados y usados correctamente, mediante muestreos aleatorios y métodos de análisis estadístico. No se deben distorsionar los resultados, ni complicar las cosas, ni buscar más o menos datos que los necesarios, ni dejar de tener en cuenta los diferentes contextos de la información.
La información sobre resultados debe ser “fácil de ver”, con indicadores visibles y simples, que prácticamente cualquier persona pueda entender. Aunque los aspectos organizacionales y humanos suelen ser lo que más llama la atención, no debe descuidarse la importancia de la tecnología, del uso del control estadístico de procesos, etc.
Tienen particular importancia los ciclos de regulación y control, para el mantenimiento de los procesos en su correcto funcionamiento; para la mejora de los procesos (más simples, más baratos, más rápidos, más seguros); y para las acciones correctivas cuando sean necesarias.
Un sistema de información es un conjunto de elementos que interactúan entre sí con el fin de apoyar las actividades de una empresa o negocio. Para esto se debe de contar con el equipo computacional: el hardware necesario para que el sistema de información pueda operar y el recurso humano que interactúa con el Sistema de información, el cual está formado por las personas que utilizan el sistema.
Como sabemos un sistema de información realiza cuatro actividades básicas: entrada, almacenamiento, procesamiento y salida de información; por lo que se puede decir que la finalidad de los sistemas de información, como las de cualquier otro sistema dentro de una organización, es procesar entradas, mantener archivos de datos relacionados con la organización y producir información, reportes y salidas.
Los sistemas de información están conformados por subsistemas que incluyen hardware, software, medios de almacenamiento de datos para archivos y bases de datos. El conjunto particular de subsistemas utilizados es lo que se denomina una aplicación de sistemas de información.

Importancia:
    Las organizaciones no pueden existir sin información.
    La información es el catalizador de la administración.
    La información permite la reunión de las funciones administrativas.
    El sistema de información, es el sistema común que fusiona los sistemas de recursos materiales, financieros, físicos y humanos como un ente íntimamente ligado.
La importancia principal de un Sistema de Información es ayudar a que la Organización logre sus objetivos al proporcionar a los gerentes conocimientos de las operaciones habituales de la organización con el fin de que puedan controlar, organizar y planear con más efectividad y eficiencia. En resumen, un Sistema de Información le proporciona a los gerentes información y apoyo para tomar decisiones efectivas, y les ofrece retroalimentación referente a las operaciones diarias. En este procedimiento, el Sistema de Información añade valor a los procesos dentro de la organización.
Requisitos de un Sistema de Información:
    Conocimiento sobre los objetivos de la organización, ambiente, operaciones, recursos, políticas y procedimientos.
    Equipos necesarios para almacenar, procesar y recuperar información.
    La administración de la información, corresponde a la utilización eficaz y el control de la información.
Uso De Las Nuevas Tecnologías
Vivimos en una época que está marcada por la magnitud de la velocidad e intensidad de los cambios en los diversos órdenes de la vida, donde la información y el conocimiento han pasado a constituirse en los bienes más preciados. Por este motivo, se dice que esta sociedad actual es la "sociedad de la información", o que estamos en la "era de la comunicación".
Uno de los factores que más ha incidido en estos cambios, tiene que ver con el uso de nuevas tecnologías de información y comunicación, que se ha materializado en la constitución de un sistema mundial de comunicación que puede operar por distintos canales de manera simultánea, dando lugar a lo que conocemos como multimedia y al surgimiento de una nueva realidad espacio-temporal, el ciberespacio.
En la base de este desarrollo convergen la microelectrónica, las computadoras y las telecomunicaciones, sustituyendo canales que venían operando de manera separada (telefonía, fax, radio, televisión, etc.) por una sola tecnología: la transmisión de información digital a través de interfaces o switches, que funcionan como "traductores" que permiten la comunicación de computadoras configuradas de manera distinta.
La exponente paradigmática de esta convergencia tecnológica es la Internet o la red de redes de computadoras conectadas entre sí alrededor del mundo, que entre otras cosas ofrece servicios de comunicaciones (correo electrónico, tele conferencias), servicios de información organizada (banco de datos, boletines electrónicos) y la posibilidad de dar y recibir información del conjunto de la red (Web).
Hasta hoy la Internet se ha desarrollado como un sistema descentralizado, horizontal, que puede movilizar cualquier cantidad de información, de manera bidireccional o multidireccional y con un gran potencial para la interacción. Por estas características es un medio único para potenciar o fomentar la articulación de redes y grupos de interés.
El despliegue de las nuevas tecnologías de información y comunicación se ha dado a un ritmo tan acelerado que no ha permitido la formulación de de conceptos que permitan interpretarlas, lo que ha llevado al uso de metáforas para hablar sobre las mismas, como la de la "autopista de la información". Por ello, no se ha tomado en cuenta el impacto que las mismas han tenido en todos los órdenes de la vida; las consecuencias deberán ser analizadas a posteriori.
Las nuevas tecnologías han repercutido en todas las esferas de la convivencia social y están lejos de haber concluido. Así, la producción basada en el uso intensivo de la fuerza de trabajo ha tenido que cede su preponderancia al factor tecnológico sustentado estratégicamente en la información y el conocimiento, estableciendo nuevas lógicas organizativas para transformar la industria centralizada en una red de unidades productivas descentralizadas a lo largo y ancho del planeta, donde lo importante es que fluya la información, más que las personas y los productos.
Desde este punto de vista no es posible dejar de mencionar la importancia que en tales procesos tienen las actividades de formación profesional, ya que el desarrollo de las áreas antes mencionadas se produce mediante la capacitación de los recursos humanos. El creciente dominio tecnológico en todos los campos, conducirá a niveles de especialización cada vez más altos, lo que a su vez llevará a una modificación total de los criterios convencionales de conducción de las organizaciones. Además, para que la organización pueda mantenerse en el mercado será de vital importancia que lleve a cabo procesos de innovación tecnológica, entendida como un proceso en el que la organización se proponga lograr una aplicación rentable de de una nueva tecnología, lo cual sin duda será un factor crítico para su supervivencia y crecimiento. De allí la importancia de lograr una comprensión profunda del proceso de innovación, que permita controlarlo y estimularlo, así como ponerlo al servicio de los objetivos empresariales y evitar cometer errores que afecten su desarrollo.
La tecnología es un factor determinante de:
    Los recursos humanos requeridos por una organización, e indirectamente de la predisposición de los empleados.
    Ciertas características generales de la estructura y procedimientos de la organización.
    El diseño de trabajos individuales y de grupo, y en forma indirecta determina las formas y la estructura de la sociedad.
El impacto sobre los procesos de conocimiento ha sido de tal contundencia que se considera que habría que esperar una o dos generaciones para poder asimilar la nueva realidad creada con el despliegue de las computadoras, que pueden realizar funciones que antes eran prerrogativas de la mente humana, la conformación de inagotables bancos de datos, la repercusión de lo audiovisual y el multimedia sobre lo escrito. Y en el plano comunicacional, conceptos básicos como el que establecía la separación entre emisor, canal y receptor han perdido vigencia; ahora, hay un sentido integral y complejo del proceso.
Otra de las características intrínsecas de las nuevas tecnologías es la ambigüedad. Es tan así, que mientras ofrecen un enorme potencial para facilitar experiencias descentralizadas y participativas, desde la dimensión local a la planetaria; por otro lado, pueden favorecer la aparición de estructuras altamente centralizadas y autoritarias. Dicho de otro modo, la globalización de la comunicación puede dar paso a sociedades basadas en la apertura, la tolerancia y la libertad, o bien a la imposición hegemónica de un determinado modelo, en desmedro de otras alternativas.
Hoy en día una persona que no tenga el conocimiento básico del uso y aplicación de herramientas de informática se puede considerar una persona analfabeta. El desarrollo actual de todos los sectores y niveles de la sociedad, no puede operar sin una simple computadora ya que la dependencia del hombre hacia la máquina se esta volviendo una realidad.
Ejemplos claros y concretos nos podemos encontrar en diferentes momentos de la vida diaria. En las organizaciones forzosamente necesitan archivar, transferir, redactar e imprimir documentos los cuales la rapidez, claridad y eficacia son, y deben ser, su principal objetivo a alcanzar. En otro caso concreto cualquier empresa no importa su razón social, ya sea comercial, de servicio, o alguna organización no lucrativa hacen uso de la computadora para comunicarse con otras personas, sucursales, u oficinas centrales ya sea vía correo electrónico, Internet, tele conferencia etc.
De allí parte la competitividad, en la rapidez de la información, las organizaciones dependen actualmente de las computadoras para manejar y almacenar información de cualquier tipo dependiendo del rubro en que se desempeña. Una compañía que tenga un alto índice de competitividad por el producto o servicio que ofrecen tienen que ponerse a la par o superar a las demás y una alternativa es cambiando la plataforma o bien reemplazando el equipo tecnológico que maneja y guarda la información
Actualmente existen muchos software que administran organizaciones enteras, estos varían según su uso, su rapidez, su nivel de complejidad, precio valor, rapidez, tamaño y capacidad, marca, etc.
La amenaza de nuevos competidores en el mundo de la informática es relevante ya que para una fecha sale un programa nuevo y en el periodo de un año ya es casi obsoleto debido a la rapidez en que la competencia inventa algo más novedoso y rápido.
La informática como herramienta es competitiva cuando es capaz de mantenerse constante en un mercado evolutivo donde cada vez las exigencias son mayores (capacidad, rapidez, eficiencia).
Prototipos por Pantallas
La interface entre el sistema y el usuario es la pantalla de visualización, esta es el vehiculo para presentar la información tal como ésta es proporcionada al sistema o como es recuperada de éste.
Los prototipos de pantalla permite evaluar la posición de información sobre la pantalla, los encabezados, los botones, mensajes. Tambíen permite la reacción de los usuarios por la cantidad de información sobre la pantalla. La ceación de un prototipo de pantalla conduce a:
    Que debe presentarse como información sobre la pantalla principal
    Cuál pertence a una pantalla de detalle
Prototipos para Procedimientos de Procesamientos
Las funciones de procesamiento incluye entradas, cálculos, recuperar información y actividades de salidas. Como los datos pocas veces son ingresados de la forma correcta o en la secuencia válida, es por ello que la aplicación se diseña para asegurar la detección de errores.
El objetivo es determinar si los procedimientos de aplicación fueron desarrollados adecuadamente.
La evaluación de los procedimientos y la observación de errores y equivocaciones cometidas por los individuos cuando emplean el prototipo, pueden sugerir la adición de características de manejo de errores que no se habían anticipado.

Prototipos de Funciones Básicas
Para determinar los requerimientos de una aplicación no es necesario desarrollar todos los módulos del sistema, sino los básicos, son aquellos que forman el núcleo de la aplicación.
Incluye las funciones primarias de la aplicación como edición y validación, y excluye las secundarias como el manejo de archivos que no forman parte del procesamiento esencial.

SISTEMAS OPERATIVOS ANDROID
Android es un sistema operativo móvil basado en Linux, que junto con aplicaciones middleware8 está enfocado para ser utilizado en dispositivos móviles como teléfonos inteligentes, tabletas, Google TV y otros dispositivos.9 Es desarrollado por la Open Handset Alliance, la cual es liderada por Google. Este sistema por lo general maneja aplicaciones como Market (Mercado) o su actualización, Google Play.
Fue desarrollado inicialmente por Android Inc., una firma comprada por Google en 2005.10 Es el principal producto de la Open Handset Alliance, un conglomerado de fabricantes y desarrolladores de hardware, software y operadores de servicio.11 Las unidades vendidas de teléfonos inteligentes con Android se ubican en el primer puesto en los Estados Unidos, en el segundo y tercer trimestres de 2010,12 13 14 con una cuota de mercado de 43,6% en el tercer trimestre.15 A nivel mundial alcanzó una cuota de mercado del 50,9% durante el cuarto trimestre de 2011, más del doble que el segundo sistema operativo (iOS de iPhone) con más cuota.16
Tiene una gran comunidad de desarrolladores escribiendo aplicaciones para extender la funcionalidad de los dispositivos. A la fecha, se han sobrepasado las 600.000 aplicaciones (de las cuales, dos tercios son gratuitas) disponibles para la tienda de aplicaciones oficial de Android: Google Play, sin tener en cuenta aplicaciones de otras tiendas no oficiales para Android, como pueden ser la App Store de Amazon o la tienda de aplicaciones Samsung Apps de Samsung.17 18 Google Play es la tienda de aplicaciones en línea administrada por Google, aunque existe la posibilidad de obtener software externamente. Los programas están escritos en el lenguaje de programación Java.19 No obstante, no es un sistema operativo libre de malware, aunque la mayoría de ello es descargado de sitios de terceros.20
El anuncio del sistema Android se realizó el 5 de noviembre de 2007 junto con la creación de la Open Handset Alliance, un consorcio de 78 compañías de hardware, software y telecomunicaciones dedicadas al desarrollo de estándares abiertos para dispositivos móviles.21 22 Google liberó la mayoría del código de Android bajo la licencia Apache, una licencia libre y de código abierto.23
La estructura del sistema operativo Android se compone de aplicaciones que se ejecutan en un framework Java de aplicaciones orientadas a objetos sobre el núcleo de las bibliotecas de Java en una máquina virtual Dalvik con compilación en tiempo de ejecución. Las bibliotecas escritas en lenguaje C incluyen un administrador de interfaz gráfica (surface manager), un framework OpenCore, una base de datos relacional SQLite, una Interfaz de programación de API gráfica OpenGL ES 2.0 3D, un motor de renderizado WebKit, un motor gráfico SGL, SSL y una biblioteca estándar de C Bionic. El sistema operativo está compuesto por 12 millones de líneas de código, incluyendo 3 millones de líneas de XML, 2,8 millones de líneas de lenguaje C, 2,1 millones de líneas de Java y 1,75 millones de líneas de C++.
TABLET
Cómo está Android en estos momentos en lo que se refiere a los dispositivos portátiles que se supone que van a ser la base del futuro del comercio de productos electrónicos. Bien es cierto que son los primeros pasos del sistema operativo en este ámbito y que mejorarán, pero la situación actual es la que es.
En los pasados días he tenido la oportunidad de probar diferentes tablets con Android y uno se da cuenta del potencial que puede tener como sistema operativo, pero a la vez es muy claro que queda mucho trabajo por delante.
La mayoría de tablets que hay ahora en el mercado utilizando el SO de Google tienen la versión 2.2 de Android. Esta versión ya fue calificada por la gran G como no optimizada o diseñada para los tablets, por lo que todos los dispositivos que tenemos a estas alturas entre nosotros podrían llegar a calificarse como pruebas de mercado.
Al tratarse de un “port” idéntico al que utilizan hoy en día muchos móviles, las características de Android en las tablets son de sobra conocidas para todos: soporte para Flash, notificaciones de las aplicaciones en una barra superior desplegable, misma forma de administrar las aplicaciones, etc etc. Es más, a estas alturas las aplicaciones especialmente diseñadas para tablets y Android brillan por su ausencia por lo que tampoco podemos llegar a conocer exactamente el potencial de la plataforma.
Sin ninguna duda es Samsung con su Galaxy Tab quien, en estos momentos, puede presumir de tener el mejor tablet con Android como sistema operativo. Sin embargo, y como ha ocurrido en los últimos meses con los teléfonos móviles con dicho SO, es muy probable que de aquí a un año el número de dispositivos disponibles crezca como la espuma con el apoyo marcas como LG, Dell o Motorla.
CELULARES
Android es el nuevo sistema operativo desarrollado por Google, para unos móviles mas rápidos, intuitivos y potentes.
El avance experimentado en los últimos años por el sector de la telefonía móvil ha sido vertiginoso. Los celulares, que antaño eran un simple aparato usado para realizar y recibir llamadas, mensajes y con algún que otro pobre juego instalado, se han transformado en potentes dispositivos, con multitud de aplicaciones, conexión a Internet, Facebook o incluso televisión.
Si está pensando en adquirir un smartphone y tiene dudas, sepa que Android representa el último escalón en esta particular evolución. A continuación se exponen las claves de este sistema operativo.
Sistema Android
Android es una plataforma o sistema operativo para celulares, el cerebro del dispositivo, situado físicamente en el procesador, y es donde se originan las órdenes que permiten al smartphone realizar la multitud de tareas, programas y aplicaciones requeridas por el celular.
Características de Android
Android se podría decir que es hijo de Linux, que no es otra cosa que otro sistema operativo diseñado para ordenadores. La principal característica de Linux, heredada por Android, radica en el sistema abierto de programación, es decir, contiene un código libre, que permite a quien desee transformarlo, adaptarlo o modificarlo, dependiendo de sus necesidades.
Principales ventajas de Android
Al ser un código libre o abierto, la modificación, mejora y solución de problemas es más rápida y eficaz, ya que todo el mundo puede acceder al mismo, al contrario que sucede con otros sistemas operativos. Este último caso exige estar pendiente que la compañía o empresa responsable del sistema operativo del celular en cuestión, realice las mejoras o reparaciones necesarias, que en algunos casos pueden demorarse incluso algunos meses.
Qué ofrece un celular con Android
Android es un sistema operativo en continua evolución y mejora, lo que significa que muchas de las ventajas que aquí se exponen irán rápidamente en aumento:
    Resuelve cualquier web en flash, lo que significa que es posible ver vídeos y acceder a juegos normalmente.
    Aplicaciones en Android Market: contiene miles de aplicaciones y no deja de crecer con nuevos contenidos para el celular, y no tiene restricciones.
    Android se instala en la mayoría de marcas y operadoras, al contrario que otros sistemas operativos, y ofrece al usuario la posibilidad de elegir el móvil que más le guste.
Desventajas de un móvil con Android
No todo son ventajas con el sistema Android, ya que pueden surgir algunos problemas, por ejemplo:
    Al ser un sistema de reciente salida, puede ocasionar algún problema menor.
    Puede carecer de fluidez si la memoria del móvil está saturada de programas y archivos.
    Duración de la batería. El gasto de energía de un móvil con Android es elevado, y si el usuario tiende a utilizar muchas aplicaciones, se puede agotar rápidamente, y haría falta una aplicación para optimizar la batería.
    Exige descargar aplicaciones para cerrar otras, que de lo contrario quedarían abiertas indefinidamente, gastando recursos y haciendo que el dispositivo ralentice sus funciones.
    Menos intuitivo que otros sistemas, y requiere configurar una gran cantidad de aplicaciones para que funcione correctamente, lo que exige mayor inversión en tiempo y dedicación por parte del usuario.
    Algunas aplicaciones pueden no funcionar con una versión determinada de Android, ya que es un sistema que está en continuo avance y modificación, lo que significa que para un celular con Android 2.1, por ejemplo, no funcionarán aplicaciones Android versión 2.2 o posteriores.

IMPLEMENTACION DE LA TECNOLOGIA EN LA EDUCACION DEL ECUADOR
Hoy en día hay que enfrentan la enorme tarea de mejorar la enseñanza de las ciencias para satisfacer las demandas y desafíos de una economía globalizada. Las salas de clase de la región deben ser transformadas en centros de aprendizaje abierto que ofrezcan programas de ciencias basados en la práctica, el pensamiento y la realidad. Las tecnologías de información modernas, si son utilizadas en forma apropiada, ofrecen a todos el potencial para poder llegar a alcanzar la vanguardia de la enseñanza de ciencias y. Para ello, se esta creando e implantación de una red de educación virtual utilizando los últimos conceptos e ideas de la educación a distancia, de tecnologías avanzadas y modos apropiados de conectividad.
Este entorno cada día adquiere más importancia, porque para ser activo en el nuevo espacio social se requieren nuevos conocimientos y destrezas que habrán de ser aprendidos en los procesos educativos.
Las nuevas tecnologías de la información y de las comunicaciones están transformando la sociedad , y en particular los procesos educativos.
Las redes digitales son parte de ese cambio social, pero hay que tener en cuenta muchas tecnologías coadyuvantes.
El teléfono, la radio y televisión, el dinero electrónico, las redes telemáticas, las tecnologías multimedia y la realidad virtual son tecnologías a tener en cuenta.
La Pedagogía habla de educación para los medios, de alfabetización audiovisual y de alfabetización informativa.
Las Nuevas Tecnologías posibilitan la construcción de un nuevo espacio social.
Dicha transformación es lo suficientemente importante como para que pueda ser comparada con las grandes revoluciones técnicas como la escritura, imprenta, que transformaron la educación.
El derecho a la educación universal tiene que ampliarse, porque los espacios sociales se han ampliado. Lo cierto es que el entorno digital emergente exige diseñar nuevas acciones educativas, complementarias a las ya existentes.
No basta con enseñar a leer, escribir y hacer cálculos matemáticos, además de introducir conocimientos básicos de historia, literatura y ciencias. Todo ello es necesario y lo seguirá siendo en los espacios naturales y urbanos en los que tradicionalmente se ha desarrollado la vida social.
La globalización ha sido favorecida y va acompañada de un amplio y vigoroso desarrollo tecnológico, vinculado especialmente a las llamadas "nuevas tecnologías de información" e internet, pero no es la tecnología en sí. Lo cual, desgraciadamente, se confunde con mucha frecuencia.
Sin embargo, se encuentra prácticamente disponible para cualquier persona o institución un conjunto de herramientas de hardware y software para dar soporte a la actividad individual y organizacional en el marco de una concepción global. La convergencia de los medios tecnológicos (a diferencia de los conceptuales, que parecen tender hacia la diversidad), la integración de servicios como los de telecomunicaciones, cable, televisión e internet auguran una plataforma sólida en el futuro inmediato.
La globalización ha permitido, y muchas veces ha promovido, un cambio radical en la concepción de la "educación", asociada a expresiones como "la era de la información", "la supercarretera de la información", o "la sociedad del conocimiento".
Hoy más que nunca, se puede percibir las limitaciones del enfoque educativo formal, centrado en la enseñanza, focalizado en el "aula física" y con un instructor delante. Enfoque aún predominante en muchos países. Cuando un alumno conoce otros entornos y personas, cómo viven, qué piensan, qué problemas enfrentan, cuán semejante o diferente es de ellos, y descubre qué fácil es lograrlo; las lecciones de anatomía o las frías ecuaciones de segundo grado caen por su propio peso. Tal vez sea prematuro sacar conclusiones, pero nadie podrá negar la potencia y valor educativo de una herramienta tan simple como el correo electrónico, para vincular e integrar personas.
La educación global requiere un cambio actitudinal importante en las personas a la par que una modificación de políticas en las instituciones, especialmente en las educativas y en los gobiernos.
Pareciera que a regañadientes, los gobiernos incrementan tímidamente los recursos financieros para el llamado "sector educación". He ahí el problema, lo educativo es concebido como "un sector" que ahora requiere mayor dinero que antes. Existe una explicación lineal insuficiente. Invertir en educación (instrucción para ser más precisos) de los niños de hoy para que aprendan lo que la sociedad necesitará de ellos mañana.
La información que debe ser difundida a los estudiantes, por ejemplo, no puede continuarse difundiendo a través del "docente de aula", labor para la cual los maestros y cualquier otro profesional, cada día, son menos competentes. El enfoque de "centro educativo", donde se sostuvo siempre que era posible "encontrar" o tener acceso a todos los "recursos educativos" necesarios para la formación del alumno, hoy es obsoleto. Pues los recursos educativos actuales se hallan en la vida cotidiana y distribuidos por el mundo.
Incluso el rol de "facilitador" o "mediador" que parece ahora rescatarse para el maestro, puede ser insuficiente o erróneamente formulado, cuando la "educación" escapa a las "escuelas", cuando los niños -y los mayores también- aprenden y se forman en la vida cotidiana, en el hogar, en la calle, en la televisión, en el trabajo, ... en internet.
Entre los beneficios más claros que los medios de comunicación aportan a la sociedad se encuentra el acceso a la cultura y la educación, los avances tecnológicos y los beneficios que comporta la era de la comunicación en que vivimos arrojan un balance y unas previsiones extraordinariamente positivas. Sin embargo, algunos expertos han incidido en que debe existir una relación entre la información que se suministra y la capacidad de asimilación de la misma por parte de las personas. Por ello, es conveniente una adecuada educación en el uso de estos poderosos medios.
El saber cambia el mundo, y nuestro mundo está cambiando con la prontitud de los saberes nuevos. Por eso apenas atinamos a decir que nuestra época es distinta Por ello la educación debe replantear sus objetivos, sus metas, sus pedagogías y sus didácticas si quiere cumplir con su misión en el siglo, brindar satisfactores a las necesidades del hombre, como dice Bill Gates en lo que trae el futuro" Las mismas fuerzas tecnológicas que harán tan necesario el aprendizaje, lo harán agradable y practico. Las corporaciones se están reinventando en torno de las oportunidades abiertas por la tecnología de la información, las escuelas también tendrán que hacerlo".
La virtualidad del saber no supone un saber-menos, o un saber-peor. Tampoco supone un saber-de-segundogrado o de segunda categoría. Antes bien, corresponde a una transformación de los procesos mediante los que se aprende, constata (anota) y explica el mundo, procesos que están en sintonía y dependencia con nivel de desarrollo de los medios tecnológicos del actual momento histórico.
Por ello, cada vez es preciso diseñar nuevos escenarios y acciones educativas, es decir, proponer una política educativa específica para el entorno cibernético. Aunque el derecho a la educación universal sólo se ha logrado plenamente en algunos países, motivo por el cual hay que seguir desarrollando acciones de alfabetización y educación en el entorno real. Este exige diseñar nuevas acciones educativas.
Debemos proponernos capacitar a las personas para que puedan actuar competentemente en los diversos escenarios de este entorno. Por ello, además de aplicar las nuevas tecnologías a la educación, hay que diseñar ante todo nuevos escenarios educativos donde los estudiantes puedan aprender a moverse e intervenir en el nuevo espacio telemático.
Las redes educativas virtuales son las nuevas unidades básicas de dicho sistema educativo, que incluye el diseño y la construcción de nuevos escenarios educativos, la elaboración de instrumentos educativos electrónicos y la formación de educadores especializados en la enseñanza en el nuevo espacio social.
Las interrelaciones educativas en los entornos reales o naturales suelen ser presénciales, están basadas en la vecindad o proximidad entre los actores o interlocutores y requieren la coincidencia espacial y temporal de quienes intervienen en ellas.
En cambio, el espacio virtual, cuyo mejor exponente actual es la red Internet, no es presencial, sino representacional, no es proximal, sino distal, no es sincrónico, sino asincrónico, y no se basa en recintos espaciales con interior, frontera y exterior, sino que depende de redes electrónicas cuyos nodos de interacción pueden estar diseminados en distintos lugares.
En el nuevo milenio, las redes telemáticas son la expresión más desarrollada del entorno virtual debido a su carácter multimedia, muy importante a efectos educativos, y al grado de interactividad.
Han surgido nuevas tecnologías de memorización, archivo y documentación, y la realidad virtual abre nuevas posibilidades para el desarrollo de procesos perceptivos y sensoriales.
A través de las redes electrónicas es posible teletrabajar, entretenerse, investigar y hacer arte, entre otras muchas cosas. El entorno virtual es un nuevo espacio social porque actividades sociales pueden desarrollarse en redes, no sólo en los hogares, instituciones o empresas.
Al apoyar una política educativa específica para la aulística virtual no se pretende que vaya a sustituir la que ya se lleva a cabo en la sociedad actual. Las Universidades y escuelas seguirán existiendo.
Lo que podría ocurrir es que a los centros académicos se les superpongan redes educativas digitales a través de las cuales se desarrollarían procesos educativos del entorno virtual, complementarios a los entornos reales.
El derecho a la educación universal tiene que ampliarse, porque los espacios sociales se han ampliado. Lo cierto es que el entorno digital emergente exige diseñar nuevas acciones educativas, complementarias a las ya existentes.
Los cambios ya se vislumbran y llegarán otros que ni siquiera nos imaginamos. Tenemos que prepararnos para ese nuevo entorno lleno de oportunidades, pero también de incertidumbres. La tecnología y las telecomunicaciones en todas sus formas cambiarán la forma de vivir, de trabajar, de producir, de comunicarnos, de comprar, de vender. Todo el entorno será bien distinto. El gran imperativo será él prepararnos y aprender a vivir en ese nuevo entorno. Ante toda esta dinámica, el sistema educativo tiene un reto muy importante. Debe cuestionarse a sí mismo, repensar sus principios y objetivos, reinventar sus metodologías docentes y sus sistemas organizacionales. Tiene que replantear el concepto de la relación alumno - profesor y el proceso mismo del aprendizaje, los contenidos curriculares, además, revisar críticamente los modelos mentales que han inspirado el desarrollo de los sistemas educativos.
Por lo anterior, la necesidad de repetir una y otra vez, hasta la saciedad, algunas de las ideas innovadoras sobre las que se ha logrado un cierto consenso a lo largo de los años, aunque con muy escasos resultados aún en el sistema educativo, desde la educación infantil hasta la educación universitaria.
Así, por ejemplo: la autonomía de los centros educativos, la calidad en la enseñanza de todos los aspectos, la interdisciplinariedad especialmente en la educación avanzada, la utilización plena y apropiada de las nuevas tecnologías en el aprendizaje, la formación profesional después de cada uno de los niveles educativos como complemento de una sólida educación general que forme para la vida, o la educación para "aprender a ser, a hacer, a vivir y a convivir", son todas ellas parte de ese largo etcétera de numerosos intentos renovadores, cargados de frecuentes frustraciones para cuantos nos hemos dedicado a estos menesteres en nuestra vida profesional, en particular durante las últimas tres décadas.
De ahí esa cada vez más extendida inquietud en busca de un nuevo paradigma educativo en vísperas del siglo. Ese profundo replanteamiento no puede ser acometido por el sistema educativo en su conjunto ni tampoco por niveles o modalidades no reglamentadas. La transformación profunda tiene que producirse esta vez de abajo hacia arriba, desde una reconversión total de cada uno de los centros educativos; desde un cambio de actitudes y de
planteamientos por parte de educadores y desde el empeño responsable de cada uno de los dicentes o alumnos, es decir, de quienes son los verdaderos "clientes" del proceso de aprendizaje, de acuerdo con el lenguaje y la mentalidad imperantes inspirados en los principios de la economía libre o social de mercado.
La sociedad del siglo seguramente reafirmará que aprender es la más importante fuente de riqueza y bienestar, de capacidad de competir y de cooperar en paz. En consecuencia, cada institución educativa tiene que empezar por aceptar la necesidad de transformarse en una organización competitiva para facilitar el aprendizaje personal y colectivo ante el siglo.
El mayor esfuerzo debe dedicarse hoy día, por tanto, al diseño de instituciones realmente capaces y deseosas de evolucionar para adaptar sus medios a las nuevas necesidades sociales e individuales con vista al futuro, desde la doble exigencia de establecer unas dimensiones adecuadas o críticas, así como un ámbito suficientemente polivalente para asegurar una oferta integral. Tales instituciones, si persiguen con empeño una calidad total, merecen la máxima autonomía y el mayor apoyo público y privado posible, aunque siempre dentro de un marco normativo común que asegure la máxima armonía y la mayor eficacia.