- LAS DOS NORMAS ESPECIFICAS PARA COMPUTADORES
- El cableado estructurado para redes de computadores nombran dos tipos de normas o configuraciones a seguir, estas son: La EIA/TIA-568A (T568A) La EIA/TIA-568B (T568B). La diferencia entre ellas es el orden de los colores de los pares a seguir para el conector RJ45.
- INTRODUCCIÓN
- Un cable cruzado es un cable que interconecta todas las señales de salida en un conector con las señales de entrada en el otro conector, y viceversa; permitiendo a dos dispositivos electrónicos conectarse entre sí con una comunicación full duplex. El término se refiere - comúnmente - al cable cruzado de Ethernet, pero otros cables pueden seguir el mismo principio. También permite transmisión confiable vía una conexión ethernet. El cable cruzado sirve para conectar dos dispositivos igualitarios, como 2 computadoras entre sí, para lo que se ordenan los colores de tal manera que no sea necesaria la presencia de un hub. Actualmente la mayoría de hubs o switches soportan cables cruzados para conectar entre sí. A algunas tarjetas de red les es indiferente que se les conecte un cable cruzado o normal, ellas mismas se configuran para poder utilizarlo PC-PC o PC-Hub/switch.
- NORMA T568B
- MATERIALES CABLE UTP CATEGORÍA 5E CONECTORES RJ45
- MATERIALES PONCHADORA CHAVETA
- MATERIALES VOLTÍMETRO
- Quitamos el recudimiento del cable UTP categoría 5E (En ambos lados). 1.5 cm: PASOS PARA LA CREACIÓN DE UN CABLE DE RED DIRECTO
- Separamos los pares de cables, al mismo tiempo verificamos si se encuentran en buen estado. 3. Separamos uno a uno los cables.
- Verificamos las configuraciones de los colores del cable directo o punto a punto.
- Colocamos los hilos en los conectores RJ45.
- Ponchamos cada uno de los extremos del cable.
- Comprobamos su buen funcionamiento con el voltímetro utilizando los 2 extremos del cable.
- Quitamos el recudimiento del cable UTP categoría5E (En ambos lados). PASOS PARA LA CREACIÓN DE UN CABLE DE RED CRUZADO
- Separamos los pares de cables, al mismo tiempo verificamos si se encuentran en buen estado. 3. Separamos uno a uno los cables.
- Verificamos las configuraciones de los colores del cable cruzado..
- Colocamos los hilos en los conectores RJ45. 6. Ponchamos cada uno de los extremos del cable.
- PASOS PARA LA CRACCIÓN DE UN CABLE DE CONSOLA
- INTRODUCCIÓN
- El cable transpuesto o de consola sirve para conectar el puerto serial de una estación de trabajo al puerto de consola de un router utilizando un adaptador.
- MATERIALES CABLE UTP CATEGORÍA 5E CONECTORES RJ45
- MATERIALES DB9 HEMBRA CAUTÍN
- MATERIALES ESTAÑO, PASTA DE SOLDAR PONCHADORA
- MATERIALES CHAVETA VOLTÍMETRO
- Quitamos el recudimiento de un lado del cable UTP categoría 5E 1.5 cm. PASOS PARA LA CREACIÓN DE UN CABLE DE RED CONSOLA
- Separamos los pares de cables, al mismo tiempo verificamos si se encuentran en buen estado.
- Separamos uno a uno los cables, encontrando 8 hilos. 4. Insertamos los hilos en el RJ 45 ordenando de acuerdo a una configuración de cable directo.
- Verificamos las configuraciones de los colores del cable directo. 6. Ponchamos un lado del cable.
- En el otro extremo del cable soldamos de acuerdo al orden de los cables en un DB9 Hembra.
- Procedemos a soldar en cada ping.
- Quedando el soldado de esta manera: 8 . Cable terminado
viernes, 24 de agosto de 2012
Creación de Cables de Red..!!
martes, 21 de agosto de 2012
Seguridades..!!
Seguridad en redes Wi-Fi
La seguridad en las redes en general es una asignatura pendiente, de que tan solo recientemente se ha tomado conciencia. En las redes inalámbricas esta necesidad es mas patente, por sus propias características, y forma parte del diseño de las redes Wi-Fi.
El mayor problema de seguridad de las redes Wi-Fi viene dado por su dispersión espacial. No está limitada a un área, a un cable o una fibra óptica, ni tienen puntos concretos de acceso o conexión, si no que se expande y es accesible desde cualquier punto dentro de su radio de cobertura. Esto hace muy vulnerables a las redes inalámbricas pues la seguridad física de dichas redes es difícil de asegurar.
La posibilidad del acceso o monitorización de los datos es una amenaza muy real. Es por esta razón que todos los equipos permiten la encriptación de las comunicaciones mediante diversos algoritmos, que permiten tanto autenticar a los usuarios para evitar accesos no autorizados, como evitar la captura del tráfico de la red por sistemas ajenos a esta.
Otra de las consecuencias de ser una red vía radio es la influencia de otras fuentes radioeléctricas, ya sean otras redes Wi-Fi, equipos radio que trabajen en la misma banda o aparatos de distinta índole que generen interferencias. Es por tanto posible la generación de una interferencia premeditada que bloquee la red Wi-Fi y evite el funcionamiento de esta.
Añadido a esto, existe al posibilidad de la realización de ataques de denegación de servicio (DoS), tanto los clásicos, comunes a todas las redes, como específicos de las redes Wi-Fi. Tanto ataques reales a los distintos protocolos de autentificación, como terminales que no cumplan con los tiempos y reglas de acceso impuestas por las normas Wi-Fi, pueden degradar o incluso parar totalmente el funcionamiento de una red Wi-Fi. Como ejemplo, existen en el mercado terminales, que relajan el cumplimiento de las temporizaciones tanto de AIFS como CW, acortándolas, con lo que se optimiza su funcionamiento al aumentar sus posibilidades de transmitir datos, pero entorpeciendo el del resto de los terminales que sí cumplen con la norma. No son equipos pensados para atacar redes, si no que se basa en una decisión comercial que tiene por objetivo conseguir, ante la percepción del usuario, un mejor funcionamiento del terminal propio frente a la competencia, a consta de ésta.
Cando se piensa en vulnerabilidad de una red Wi-Fi se considera, como lo hemos hecho hasta ahora, la posibilidad de que un cliente no autorizado acceda a datos de la red. Sin embargo existe otro peligro: la inclusión de un punto de acceso no autorizado en la red. Un atacante puede añadir un punto de acceso que anuncie el mismo nombre de red, confundiendo así a algunos clientes que se podrán llegar a conectar a el en vez de a la red legal. Dependiendo de la elaboración de la suplantación, el cliente puede llegar a revelar datos y claves importantes.
Para minimizar el peligro que supone la implementación de una red inalámbrica, existen una serie de normas básicas a tener en cuenta a la hora de configurar la red, tales como:
- Cambiar las configuraciones por defecto: En contra de lo que suele pensarse, son muchos los administradores de la red que no cambian la configuración fijada en fábrica. Parámetros como las calves y usuarios o el nombre de red se mantienen inalterados. Es cierto que la en la mayoría de las instalaciones se cambia el nombre de la red, pero algo tan importante como la clave de acceso del administrador, en muchos casos, se mantiene inalterada, provocando un punto de acceso simple para cualquier intruso.
- Activar encriptación: Es una de las prácticas claves y necesarias. Es el método básico y más inmediato de impedir accesos no autorizados a la red, así como capturas de tráfico y datos privados. Existen varios sistemas de encriptación que analizaremos en un punto posterior.
- Uso de claves “fuertes”: Puesto que es la llave a la red, las claves utilizadas han de ser suficientemente seguras y complejas de averiguar para asegurar la seguridad de la red. Es frecuente usar claves de solo letras, con palabras comunes y muy habitualmente referenciado a datos personales del administrador, como nombres de hijos, edades, etc. que hacen dicha clave fácil de averiguar.
- Desactivar el anuncio del nombre de red (SSID): Aunque no es viable en todos los casos, la desactivación del anuncio del nombre de la red es un elemento de seguridad añadido. Por un lado, impedirá al atacante identificar la naturaleza y propietario de la red, y por otro hará necesario introducir el nombre de la red manualmente para permitir la asociación a la red Wi-Fi, por lo que previamente deberá ser conocida por el atacante.
- Filtrados de direcciones MAC: En la mayoría de los puntos de acceso es posible especifica una lista de direcciones MAC que serán admitidas, siendo todas las demás rechazadas. La dirección MAC es una dirección de nivel 2 que lleva la tarjeta de red Wi-Fi grabada de fábrica (análoga a la dirección MAC-Ethernet). Por tanto, si se permite solo el acceso a las direcciones MAC pertenecientes a los equipos propios se impedirá que algún sistema externo pueda conectarse de forma accidental o premeditada. Sin embargo, hay que hacer notar que existen tarjetas de red que permiten el cambio de la dirección MAC, y en ese caso sería posible para un atacante de nuestra red, asignarle una dirección válida de alguno de nuestros equipos y evitar esta medida de seguridad. No obstante para ello, el atacante, debería conocer la dirección MAC de alguno de nuestros equipos, lo cual si las medidas de seguridad física e informática están correctamente implementadas no resultará fácil.
- Uso de direcciones IP estáticas: No un problema real para un hacker con conocimientos, peor si dificulta el acceso a intrusos ocasionales. Es habitual tener en las redes Wi-Fi la asignación automática de direcciones IP, Gateway y DNS. La práctica de asignar las direcciones manualmente a los terminales inalámbricos tiene la ventaja de que el atacante ha de averiguar en primer lugar los datos de la red, y más importante, nos permite habilitar filtros de manera que solo las direcciones IP asignadas sean permitidas. En caso de que el atacante utilice alguna de las IP asignadas, eventualmente podrá ser detectado pues entrará en conflicto con los terminales legales.
- VLAN propia para la red Wi-Fi. Es interesante la implementación, en aquellos equipos que lo permitan, de una VLAN específica para la red Wi-Fi. Al ser una red insegura por su propia naturaleza, es recomendable mantenerla separada en todo momento de la red cableada. Así pues, si el punto de acceso, o el controlador asociado, es capaz de gestionar VLANs, mantener el tráfico proveniente de la red Wi-Fi en una VLAN distinta permitirá implementar mecanismos de seguridad y acceso suplementarios que controlen el acceso de los usuarios Wi-Fi a los datos de la red corporativa.
- Instalación de un Firewall: Relacionado con el punto anterior, el acceso de los clientes Wi-Fi a la red cableada debería ser gestionado por un Firewall, ya sea actuando de puente entre las correspondientes VLANs o como elemento físico de control, interponiéndose en flujo de tráfico Wi-Fi. En cualquier arquitectura, la inclusión de un firewall nos permitirá implementar políticas de acceso seguras y complejas que aseguren que, aunque algún intruso hubiera conseguido conectarse a la red inalámbrica, no progrese hasta tener acceso a datos sensibles.
Estas medidas, por sí mismas, correctamente implementadas proporcionan seguridad suficiente para entornos no sensibles. Sin embargo existe la posibilidad de aumentar la seguridad mediante técnicas avanzadas, parte de las cuales precisan de la participación de un controlador de puntos de acceso.
Métodos de encriptación
Las redes Wi-Fi incorporan la posibilidad de encriptar la comunicación. Es una práctica recomendable ya que al ser un medio inalámbrico, de no hacerlo seria muy simple capturar el tráfico que por ella circula y por tanto la captura, por personas no deseadas, de datos sensibles.
A lo largo del desarrollo de las redes Wi-Fi han ido surgiendo diferentes métodos de encriptación de las comunicaciones, evolución necesaria pues los distintos métodos han resultado ser vulnerables y ha sido necesario implementar algoritmos mas seguros que solventaran los problemas de los anteriores. Estos, a su vez, van demandando más recursos de los equipos que los implementan por lo que la solución adoptada será siempre un compromiso entre rendimiento y seguridad. Los métodos estándar disponibles se detallan a continuación.
- WAP: Al inicio de las redes Wi-Fi ya se vio que las redes inalámbricas tenían problemas de seguridad intrínsecos a su naturaleza. Por esta razón, dichas redes nacieron con la posibilidad de activar encriptación y accesos mediante claves, siendo WAP el primer método que se implementó. Las siglas WAP provienen del inglés Wired Equivalent Privacy (Privacidad equivalente al cable). Ya en el mismo nombre se observa cual era el objetivo de esta encriptación, dar a las redes inalámbricas la misma seguridad que existía en las redes cableadas. Sin embargo la implementación de este protocolo adolece de problemas de diseño, que hace que si un equipo se encuentra dentro del alcance de la red, pueda capturar los paquetes de esta, y con la suficiente cantidad de paquetes capturados se pueda averiguar la clave de la red, y por tanto tener acceso a ella. El proceso de captación de la clave de la red se puede hacer con herramientas públicas gratuitas y tan solo tarda unos pocos minutos.
WAP permite claves de diversas longitudes de bits, lo cual teóricamente aumenta su seguridad, pero en la práctica, y debidos a los problemas existentes en la implementación de este protocolo, la única repercusión de utilizar una clave mas larga es que aumenta el tiempo necesario para averiguar la clave de la red, pero esta sigue siendo vulnerable.
Dentro de WEP se reconocen dos métodos de autentificación de usuarios: Open System y Shared Key.
El método denominado Open System no implementa realmente autentificación. El punto de acceso permitirá que se una cualquier cliente, aunque posteriormente se obligará a que toda comunicación de datos sea codificada según el algoritmo dictado por WEP.
Por el contrario Shared Key dicta que los clientes tendrán que utilizar su clave WEP para autentificarse con el punto de acceso y solo aquellos que tengan las credenciales correctas serán admitidos por el punto de acceso como clientes.En la práctica es recomendable utilizar autentificación Shared Key, pues Open System no proporciona realmente una autentificación de los clientes, solo encriptación de las comunicaciones, y aunque sería suficiente para preservar los datos, expone al punto de acceso a ataques de denegación de servicio (DoS).Este protocolo no implementa ninguna gestión de claves. La clave utilizada es compartida por el punto de acceso y todos los clientes y debe ser distribuida a estos manualmente. Una consecuencia de ello es que con tener acceso a un solo equipo, se tiene la clave que compromete a todos los de la red.Actualmente, por los problemas descritos se aconseja utilizar algún otro método de los disponibles, recurriendo solo a este sistema si no existiera ninguna alternativa viable y procurando acompañarlo de algún otro protocolo de encriptación general como puede ser IPsec o SSL.
La principal característica es que existe un solo punto donde almacenar todas las credenciales y usuarios y que este sistema será el responsable último de asignar el tipo de acceso de cada uno. Así pues, el servidor RADIUS podrá llevar a cabo labores AAA (Athentication, Authorization and Accounting, o lo que es lo mismo, Autentificación, Autorización y Registro) de forma centralizada lo que facilita y abarata el mantenimiento y control de la red y los usuarios.
Al disponer de un servidor RADIUS ya no se dispone de una sola clave para garantizar el acceso a cualquier usuario de la red, si no que las credenciales dependerán de cada usuario, lo cual permitirá entre otras cosas levar un registro de los accesos a la red y la asignación de diferentes privilegios y niveles acceso dependiendo del usuario.
Así mismo se incrementa la seguridad del sistema, pues las claves ya no residen el punto de acceso, que es el extremo de la red, si no en un servidor dedicado cuyo nivel de seguridad es mayor. También se solventa el problema de robos de claves o credenciales, puesto que, al ser únicas por cada usuario, la sustracción de una solo será significativa para el usuario afectado, y no para el resto e usuarios de la red. Bastará con cambiar las credenciales de ese usuario o bloquearlo para restablecer la seguridad en la red, sin afectar en el proceso al resto de clientes como ocurre en las arquitecturas de clave única.
Seguridad mediante controlador de puntos de acceso
El uso de un controlador de puntos de acceso, no solo facilita la gestión y mantenimiento de una red Wi-Fi, si no que puede servir así mismo para aumentar su seguridad. Las posibilidades que proporciona un controlador dependerán del fabricante y modelo, pues no hay un estándar, siendo algunas de las más interesantes:
- Firewall (cortafuegos): Es habitual que los controladores implementen funcionalidades de firewall, que permitan controlar el tráfico que pasa de la red cableada a la red Wi-Fi, en base a direcciones de origen o destino, aplicaciones, servicios, etc. El firewall es también un elemento importante en la defensa ante ataques de denegación de servicio (DoS)
- Comunicación por túnel: Si se dispone de esta capacidad, el controlador creara un túnel con cada uno de los puntos de acceso. Dentro de ese túnel (normalmente un encapsulamiento IP o SSL) se transmitirá el tráfico de los clientes desde el punto de acceso al controlador. Esto permite que los clientes Wi-Fi, potencialmente inseguros, no tengan acceso a la red directamente, si no que todo el tráfico deberá pasar por el controlador, el cual, según las políticas asignadas a cada tráfico por la funcionalidad de firewall en éste incluida, denegará o permitirá el acceso a partes o toda la red.
- La tunelización del tráfico también proporciona la posibilidad de que los puntos de acceso estén conectados a segmentos de red diferentes, ya que de este modo el tráfico de los clientes siempre accederá a la red por el mismo punto de ésta, aquel al que este conectado el controlador. Además, si el túnel se realiza con un protocolo seguro como SSL, la comunicación entre los puntos de acceso y el consolador podrá hacerse a través de redes de terceros o incluso Internet, lo que permite la extensión de la red inalámbrica a zonas remotas atravesando redes inseguras sin exponer el trafico propio.
- Gestión por usuario: En conjunción con un servidor de autentificación, ya sea este interno al controlador o un servidor RADIUS externo, será posible asignar diferentes acceso a los usuarios en función de sus credenciales, de una manera más detallada y compleja que si el proceso lo llevara a cabo el punto de acceso. Así pues podrán asignarse a diversas redes, concederles accesos a diferentes servicios, etc.
- Gestión del ancho de banda: El controlador podrá ofrecer una funcionalidad por la cual regulará el ancho de banda disponible en función de la aplicación o usuario que desee hacer uso de ella. Así pues, podrá favorecerse el tráfico de voz sobre el de datos, evitando la saturación y bloqueo de la red Wi-Fi por aplicaciones abusivas como descargas de ficheros, o priorizar el tráfico de la dirección con respecto a los empleados o alumnos.
- Localización espacial: Un controlador puede ofrecer un servicio de localización. Puesto que tiene control de los diferentes puntos de acceso, puede monitorizar los clientes y la potencia de recepción de estos por cada uno de los puntos de acceso. Si el Controlador tiene conocimiento de la situación espacial de los puntos de acceso, triangulando la posición con respecto a los distintos puntos de acceso en base a la potencia recibida por estos, podrá obtener la posición del cliente. Aunque esta posición no sea completamente exacta, sí será importante a la hora de localizar equipos, no solo para la gestión física de estos, si no para encontrar a los atacantes o intrusos de una red.
- Limitación física del alcance de la red: Aunque la propagación de la señal de radiofrecuencia no se puede acotar de forma efectiva en el espacio, un controlador que disponga del servicio de localización, podrá denegar el acceso a la red a aquellos equipos cuya red se encuentre fuera de los limites de aquello que se le indique como zona de cobertura. Es de indicar que con este método los clientes fuera de la zona de cobertura de la red seguirán recibiendo la señal, con lo que podrían intentar otros medios de ataque a esta si la encriptación no es adecuada, pero no podrán conectarse a la red. Esta funcionalidad es útil cuando se quiere dar cobertura Wi-Fi a un edificio pero se desea prevenir que clientes presentes fuera del edificio pedan conectarse a esta como intrusos, por otra parte difíciles de localizar al estar ubicados en zonas sobre las que no se tiene control físico.
WIPS (Wireless Intrusion Prevention System)
Un WIPS es un conjunto de equipos de red, que como su mismo nombre indica tienen como objetivo prevenir y detectar intrusiones en la red Wi-Fi (las siglas traducidas significan sistema de prevención de intrusión inalámbrica).
Un sistema WIPS siempre se compone de tres parte lógicas: los sensores que recogerán los datos de la red, el servidor que recolectará los datos de los distintos sensores, los analizara y relacionará, y la consola que utilizará el personal encargado de la seguridad de la red para acceder a los datos y visualizar las alarmas. Estos tres bloques lógicos no siempre están separados físicamente, pues es habitual que el servidor implemente un servidor WEB que sea el utilizado para acceder a sus datos y configuraciones a través de un navegador.
No siempre un WIPS es un sistema independiente, en algunos sistemas esta funcionalidad esta incluida en el controlador de puntos de acceso, que hará la función de servidor, que en conjunción con los puntos de acceso, que harán las funciones de sensores, pueden llevar a cabo parte de las funciones que realizaría un WIPS dedicado.
Un WIPS monitoriza el espectro radioeléctrico de la red Wi-Fi con el objeto de detectar ataques de diversa índole, como pueden ser:
- Puntos de acceso infiltrados: Uno de los ataques mas efectivos suele ser la infiltración de un punto de acceso, el cual puede asociar clientes de la red, obteniendo por tanto datos de estos, que transmitirán creyendo estar conectados a la red legal. También, en caso de conectarlo a la red cableada, puede ser un punto de entada a la red de cualquier intruso, que podrá acceder a distancia y por tanto será difícil de localizar.
- El WIPS puede detectar estos puntos de acceso infiltrados, usando técnicas simples como un conteo de los puntos de acceso que detecta, hasta algunas mas complejas que implican relacionar la dirección MAC de cada punto con la potencia que de ellos recibe. En caso de que se reciba información de la misma MAC con una potencia diferente, significaría que o bien se ha cambiado de localización el punto de acceso, lo cual no suele ser habitual, o que un nuevo punto de acceso, en una localización diferente, ha intentado suplantar al equipo legal.
- Una vez detectado el equipo infiltrado el WIPS lo notificará al administrador de la red, y en algunos sistemas permitirá habilitar contramedidas que bloqueen al punto de acceso infiltrado, por ejemplo, suplantando su dirección (MAC spoofing) o interfiriéndole.
- Ataques de denegación de servicio (DoS): Puesto que monitoriza la actividad es capaz de detectar un comportamiento inusual de los clientes, identificándolo, si es el caso, con ataques de denegación de servicio.
- Puntos de acceso mal configurados: Puede detectar conversaciones entre puntos de acceso y los clientes, sobre todo en el momento de la asociación y negociación de la encriptación a usar, detectando parámetros y configuraciones erróneas. Pero incluso de forma más temprana, mediante la información emitida en los paquetes de beacon puede avisar de fallos en la configuración de puntos de acceso.
- Clientes mal configurados: Un cliente cuyos intentos de conexión a la red sean denegados de forma repetitiva, será detectado como un fallo de configuración de dicho cliente, o dependiendo el caso, como el intento de conexión de un atacante, que, especialmente en los casos en que intente averiguar las claves de la red mediante métodos de fuerza bruta, provocara muchos intentos de conexión denegados por la red.
- Conexiones no autorizadas: Si en WIPS tiene una lista de los clientes autorizados, podrá detectar la conexión de los clientes no autorizados, ya sean meros intentos de conexión o clientes que han entrado con éxito en la red.
- Redes ad-hoc: Es muchos escenarios, una red ad-hoc es un punto de vulnerabilidad importante. La red gestionada del tiempo infraestructura puede disponer de diferentes mecanismos de protección, pero una red ad-hoc, puede ser creada involuntariamente, por un error de configuración, un troyano, etc. lo que crea un agujero de seguridad que puede tener consecuencias importantes. El WIPS, mediante la monitorización de los canales Wi-Fi, podrá detectar este tipo de redes y asociaciones, pudiendo indicar así mismo el equipo que crea dicha red y que esta creando la vulnerabilidad.
- Mac spoofing: recibe este nombre el ataque que consiste en suplantar la dirección MAC de otro equipo. Esto, en el caso de una red Wi-Fi, permite ganar el acceso a la red en aquellas que tengan implementada una autorización de clientes basada en sus direcciones de red. Un WIPS podrá detectar dos señales diferentes con la misma dirección MAC, evidenciando este tipo de ataque.
- Ataques “evil twin”/”honeypot”: Este tipo de ataques consiste en realizar un phishing de un hotspot, es decir, insertar un punto de acceso que muestra al usuario el mismo interfaz que mostraría un hotspot (puntos de acceso a Internet publico que mediante un portal permiten acceso a servicios diversos, como por ejemplo los existentes en los aeropuertos para acceso a Internet mediante pago). Como consecuencia de esto, el cliente no notará diferencia entre el punto de acceso legal y el insertado, y procederá a hacer uso de este. El negocio para el atacante proviene de que los hotspot solicitan al cliente un usuario y clave para acceder al servicio o un pago en el momento mediante tarjeta de crédito, datos que el atacante podrá capturara para su posterior uso fraudulento.
- Ataques “man-in-the-midle”: Este es un tipo de ataque en el cual, el atacante se posiciona entre el cliente y el servicio que ha de utilizar. Así en una red Wi-Fi, este ataque consistiría en que el cliente se conecta al sistema del atacante, gracias a algún engaño por parte de este, y el sistema del atacante a su vez reenvía los datos al punto de acceso legal. De esta forma el cliente no ser percatará de que no esta conectado a la red directamente, pues todo parece funcionar perfectamente, pero el atacante tiene acceso a todos los datos del cliente, puesto que pasan por su sistema. El mayor peligro de este tipo de ataque es que el intruso puede variar la información que envía el cliente, substituyéndola por aquellos datos que para es sean más interesantes, no percatándose de ello ni el cliente ni la red o los servidores en caso de no existir sistemas de seguridad como un WIPS, IDS, IPS..
Seguridades en Redes de Area Local
Uno de los problemas de este tipo de redes es precisamente la seguridad ya que cualquier persona con una terminal inalámbrica podría comunicarse con un punto de acceso privado si no se disponen de las medidas de seguridad adecuadas. Dichas medidas van encaminadas en dos sentidos: por una parte está el cifrado de los datos que se transmiten y en otro plano, pero igualmente importante, se considera la autenticación entre los diversos usuarios de la red. En el caso del cifrado se están realizando diversas investigaciones ya que los sistemas considerados inicialmente se han conseguido descifrar. Para la autenticación se ha tomado como base el protocolo de verificación EAP (Extensible Authentication Protocol), que es bastante flexible y permite el uso de diferentes algoritmos.
Pretendemos aquí dar, a modo de ejemplo, unos cuantos consejos tomados de publicaciones del sector que se deben tener en cuenta cuando se planifica la seguridad de la red de una corporación:
- La seguridad y la complejidad suelen guardar una relación de proporcionalidad inversa, es decir, a mayor seguridad, se simplifican los procedimientos, ya que la seguridad es limitadora de las posibilidades.
- Además, la educación de los usuarios de la red debe ser lo más intensa posible.
- La seguridad y la facilidad de uso suelen guardar frecuentemente una relación de proporcionalidad inversa; por tanto, resulta conveniente concentrarse en reducir el riesgo, pero sin desperdiciar recursos intentando eliminarlo por completo, lo que es imposible.
- Un buen nivel de seguridad ahora es mejor que un nivel perfecto de seguridad nunca.
- Por ejemplo, se pueden detectar diez acciones por hacer; si de ellas lleva a cabo cuatro, el sistema será más seguro que si se espera a poder resolver las diez.
- Es mejor conocer los propios puntos débiles y evitar riesgos imposibles de cuantificar.
- La seguridad es tan potente como su punto más débil, por lo que interesa centrarse en estos últimos puntos.
- Lo mejor es concentrase en amenazas probables y conocidas.
- La seguridad no es un gasto para la empresa, sino que debe ser considerada como una inversión.
Al plantearse el diseño de la seguridad de la red a la luz de los consejos anteriores, hay que seguir una serie de pasos, entre los que destacan los siguientes:
- Evaluar los riesgos que corremos.
- Definir la política fundamental de seguridad de la red.
- Elegir el diseño de las tácticas de seguridad.
- Tener previstos unos procedimientos de incidenciasrespuesta, etcétera.
viernes, 17 de agosto de 2012
Conectividad..!!!
CONECTIVIDAD
Conexiones WI-FI (Inalambrica)
La conectividad inalámbrica ya es una realidad que se ha propagado como un virus por todo el mundo, y que continúa expandiéndose a territorios desconocidos.
WI-FI cuenta con elevadas prestaciones, pero a muy altos precios, los que se justifican por la libertad de movimiento y rapidez de implementación que proporcionan. IrDa y Bluetooth son las tecnologías más baratas y fáciles de manejar, aunque resultan también las más lentas y de menor alcance, ya que los equipos de ámbito doméstico y de oficina son sus principales aplicaciones. La segunda es una tecnología de norma abierta para conexiones inalámbricas de corto alcance (10 m), entre un sin número de aparatos con esta capacidad.
Cuando hablamos de WIFI nos referimos a una de las tecnologías de comunicación inálambrica mediante ondas más utilizada hoy en día. WIFI, también llamada WLAN (wireless lan, red inalámbrica) o estándar IEEE 802.11. WIFI no es una abreviatura de Wireless Fidelity, simplemente es un nombre comercial.
De hecho, son su velocidad y alcance (unos 100-150 metros en hardaware asequible) lo convierten en una fórmula perfecta para el acceso a internet sin cables.
- Dispositivos WI-FI..!!
Existen varios dispositivos Wi-Fi, los cuales se pueden dividir en dos grupos: Dispositivos de Distribución o Red, entre los que destacan los routers, puntos de acceso y Repetidores; y Dispositivos TerminalesPCI) o bien USB. que en general son las tarjetas receptoras para conectar a la computadora personal, ya sean internas (tarjetas
- Dispositivos de Distribución o Red:
- Los puntos de acceso son dispositivos que generan un "set de servicio", que podría definirse como una "Red Wi-Fi" a la que se pueden conectar otros dispositivos. Los puntos de acceso permiten, en resumen, conectar dispositivos en forma inalámbrica a una red existente. Pueden agregarse más puntos de acceso a una red para generar redes de cobertura más amplia, o conectar antenas más grandes que amplifiquen la señal.
- Los router inalámbricos son dispositivos compuestos, especialmente diseñados para redes pequeñas (hogar o pequeña oficina). Estos dispositivos incluyen, un Router (encargado de interconectar redes, por ejemplo, nuestra red del hogar con internet), un punto de acceso (explicado más arriba) y generalmente un switch que permite conectar algunos equipos vía cable. Su tarea es tomar la conexión a internet, y brindar a través de ella acceso a todos los equipos que conectemos, sea por cable o en forma inalámbrica.
- Los repetidores inalámbricos son equipos que se utilizan para extender la cobertura de una red inalámbrica, éstos se conectan a una red existente que tiene señal más débil y crean una señal limpia a la que se pueden conectar los equipos dentro de su alcance.
- Los dispositivos terminales abarcan tres tipos mayoritarios: tarjetas PCI, tarjetas PCMCIA y tarjetas USB:
- Las tarjetas PCI para Wi-Fi se agregan (o vienen de fábrica) a los ordenadores de sobremesa. Hoy en día están perdiendo terreno debido a las tarjetas USB. Dentro de este grupo también pueden agregarse las tarjetas MiniPCI que vienen integradas en casi cualquier computador portátil disponible hoy en el mercado.
- Las tarjetas PCMCIA son un modelo que se utilizó mucho en los primeros ordenadores portátiles, aunque están cayendo en desuso, debido a la integración de tarjeta inalámbricas internas en estos ordenadores. La mayor parte de estas tarjetas solo son capaces de llegar hasta la tecnología B de Wi-Fi, no permitiendo por tanto disfrutar de una velocidad de transmisión demasiado elevada
- Las tarjetas USB para Wi-Fi son el tipo de tarjeta más común que existe en las tiendas y más sencillo de conectar a un pc, ya sea de sobremesa o portátil, haciendo uso de todas las ventajas que tiene la tecnología USB. Hoy en día puede encontrarse incluso tarjetas USB con el estándar 802.11N (Wireless-N) que es el último estándar liberado para redes inalámbricas.
- También existen impresoras, cámaras Web y otros periféricos que funcionan con la tecnología Wi-Fi, permitiendo un ahorro de mucho cableado en las instalaciones de redes y especialmente, gran movilidad.
En relación con los drivers, existen directorios de "Chipsets de adaptadores Wireless".
- Ventajas y desventajas..!!
Las redes Wi-Fi poseen una serie de ventajas, entre las cuales podemos destacar:
- Al ser redes inalámbricas, la comodidad que ofrecen es muy superior a las redes cableadas porque cualquiera que tenga acceso a la red puede conectarse desde distintos puntos dentro de un rango suficientemente amplio de espacio.
- Una vez configuradas, las redes Wi-Fi permiten el acceso de múltiples ordenadores sin ningún problema ni gasto en infraestructura, no así en la tecnología por cable.
- La Wi-Fi Alliance asegura que la compatibilidad entre dispositivos con la marca Wi-Fi es total, con lo que en cualquier parte del mundo podremos utilizar la tecnología Wi-Fi con una compatibilidad total.
Pero como red inalámbrica, la tecnología Wi-Fi presenta los problemas intrínsecos de cualquier tecnología inalámbrica. Algunos de ellos son:
- Una de las desventajas que tiene el sistema Wi-Fi es una menor velocidad en comparación a una conexión con cables, debido a las interferencias y pérdidas de señal que el ambiente puede acarrear.
- La desventaja fundamental de estas redes existe en el campo de la seguridad. Existen algunos programas capaces de capturar paquetes, trabajando con su tarjeta Wi-Fi en modo promiscuo, de forma que puedan calcular la contraseña de la red y de esta forma acceder a ella. Las claves de tipo WEP son relativamente fáciles de conseguir con este sistema. La alianza Wi-Fi arregló estos problemas sacando el estándar WPA y posteriormente WPA2, basados en el grupo de trabajo 802.11i. Las redes protegidas con WPA2 se consideran robustas dado que proporcionan muy buena seguridad. De todos modos muchas compañías no permiten a sus empleados tener una red inalámbrica. Este problema se agrava si consideramos que no se puede controlar el área de cobertura de una conexión, de manera que un receptor se puede conectar desde fuera de la zona de recepción prevista
- Hay que señalar que esta tecnología no es compatible con otros tipos de conexiones sin cables como Bluetooth, GPRS, UMTS etc.
Conexion por Cables

Las velocidades de conexión en España suelen ir desde 2 Mbps las más bajas hasta 50 Mbps las más altas. Por este cable se puede enviar también señales de televisión, por lo que las compañías ofrecen también este servicio. Para poder utilizar este tipo de conexión hay que vivir en un lugar donde exista una compañía que suministre este servicio.
En España, actualmente se está instalando el cable en la mayoría de las provincias, aunque todavía no llega a todas las localidades. Los encargados de esto son Ono, Euskaltel.
Igual que sucede con ADSL, al encender el ordenador ya estamos conectados, directamente podemos hacer clic en el navegador para entrar en Internet, sin tener que esperar a que se efectúe la llamada telefónica, como sucede con el módem de RTB.
Las comunicaciones serie más comunes en redes de ordenadores son las conexiones de los puertos serie con módems. Por ello, estudiaremos estos conectores serie y las señales de cada una de sus líneas tomando como ejemplo la comunicación ordenador-módem.
El módem es un elemento intermedio entre el equipo terminal de datos ETD y la línea telefónica. Por tanto, hay que definir el modo en que el módem se conectará tanto a la línea telefónica como al ETD.
Los módems se conectan a la línea telefónica a través de una clavija telefónica. En algunos casos se permite un puente para que no quede interrumpida la línea telefónica y se proporcione servicio a un teléfono.
En este caso la conexión consiste en tender la línea telefónica hasta la entrada telefónica de línea del módem, y luego tender otro cable telefónico desde la salida de teléfono del módem hasta el propio teléfono.
En cuanto a su conexión con el ETD, se han definido varios estándares de conectividad. Los más comunes son los propuestos por la norma RS-232 o la recomendación V.24, que definen cómo debe ser el interfaz de conexión.
Las conexiones de Internet por cable le permiten permanecer conectado a Internet de manera permanente. No se debe esperar a que se establezca la conexión con el proveedor de servicios porque ya se está conectado directamente al mismo.
Ya está disponible en varias ciudades de Francia (París, Lyon, Niza, Le Mans, Annecy, Strasbourg...).
Ventajas..!!
- La conexión se paga por mes y no por minuto, lo que hace que el costo se reduzca.
- Generalmente la velocidad es mayor que la del módem.
¿Qué hardware se necesita para una conexión por cable?
Para acceder a esta tecnología se debe contar con:
- Cable
- Un proveedor de servicios por cable
- Un cable módem
El cable módem es un dispositivo que permite acceder a Internet a través de la red de distribución del cable.
Existen dos tipos de conexión: un tipo de conexión coaxial (al cable) y un tipo de conexión Ethernet RJ45 (a la tarjeta de interfaz de red del equipo).
En teoría, se pueden alcanzar velocidades de 10 Mbps sin embargo, este ancho de banda se comparte de acuerdo a una estructura arbórea que conecta al usuario con el operador. Por lo tanto, puede ser que el usuario comparta (lo que probablemente suceda) su ancho de banda con todas las personas del edificio, o sea que si todos los vecinos descargan videos, el rendimiento se verá afectado. Existen dos tipos de conexión: un tipo de conexión coaxial (al cable) y un tipo de conexión Ethernet RJ45 (a la tarjeta de interfaz de red del equipo).
Conexiones Servicios
Fibra Optica..!!
Las fibras ópticas pueden ahora usarse como los alambres de cobre convencionales, tanto en pequeños ambientes autónomos (tales como sistemas de procesamiento de datos de aviones), como en grandes redes geográficas (como los sistemas de largas líneas urbanas mantenidos por compañías telefónicas).
Ventajas
- La fibra óptica hace posible navegar por Internet a una velocidad de dos millones de bps.
- Acceso ilimitado y continuo las 24 horas del día, sin congestiones.
- Video y sonido en tiempo real.
- Es inmune al ruido y las interferencias.
- Las fibras no pierden luz, por lo que la transmisión es también segura y no puede ser perturbada.
- Carencia de señales eléctricas en la fibra.
- Presenta dimensiones más reducidas que los medios pre-existentes.
- El peso del cable de fibras ópticas es muy inferior al de los cables metálicos.
- La materia prima para fabricarla es abundante en la naturaleza.
- Compatibilidad con la tecnología digital.
Desventajas
- Sólo pueden suscribirse las personas que viven en las zonas de la ciudad por las cuales ya esté instalada la red de fibra óptica.
- El coste es alto en la conexión de fibra óptica, las empresas no cobran por tiempo de utilización sino por cantidad de información transferida al computador, que se mide en megabytes.
- El coste de instalación es elevado.
- Fragilidad de las fibras.
- Disponibilidad limitada de conectores.
- Dificultad de reparar un cable de fibras roto en el campo.
Nuevas Características de la Fibra Óptica.
Coberturas más resistentes:
La cubierta especial es extruida a alta presión directamente sobre el mismo núcleo del cable, resultando en que la superficie interna de la cubierta del cable tenga arista helicoidales que se aseguran con los subcables.
La cubierta contiene 25% más material que las cubiertas convencionales.
Radio enlace..!!
Hoy en día los sistemas inalámbricos nos rodean por todas partes. A los ya habituales sistemas de telefonía móvil, se unen las redes de datos inalámbricas, la televisión digital terrestre o los radioenlaces punto a punto. Para el correcto funcionamiento de estos sistemas resulta crucial un diseño adecuado del interfaz radioeléctrico. El diseño de radioenlaces es una disciplina que involucra toda una serie de cuestiones tales como la elección de la banda de frecuencias, el tipo de antenas y los equipos de radiocomunicación, el cálculo del balance de potencias, la estimación de los niveles de ruido e interferencia o el conocimiento de las distintas modalidades y fenómenos de propagación radioeléctrica, entre otras. Debido a su gran variedad, en este artículo haremos mención solamente a algunas de estas cuestiones.
La planificación del enlace radioeléctrico de un sistema de radiocomunicaciones comienza con el cálculo del alcance. Para ello se deben conocer la banda de frecuencias, las características climáticas de la zona y las especificaciones técnicas de los equipos de radio: potencia del transmisor, ganancia de las antenas, sensibilidad del receptor, tasa de error, disponibilidad, etc. Este cálculo del alcance del sistema constituye una primera estimación teórica que deberá verificarse tras la instalación de los equipos. La utilización de aplicaciones informáticas de simulación con cartografías digitales del terreno y de los edificios constituye una potente herramienta de ayuda en la planificación. Valiéndose de las mismas es posible determinar las mejores localizaciones para instalar las antenas y estimar su alcance o cobertura, así como los posibles niveles de interferencia que provienen de otros emplazamientos vecinos, especialmente en el caso de sistemas celulares o de acceso radio punto a multipunto. Posteriormente, las visitas a los posibles emplazamientos permite determinar su aptitud para albergar los equipos de radiocomunicaciones.
Las frecuencias utilizadas habitualmente por los radioenlaces fijos exceden de 10 GHz. Por lo tanto, estos sistemas se incluyen dentro de la categoría de sistemas terrenales con visión directa (LOS, Line-Of-Sight). La característica de visibilidad directa o LOS proviene de la dificultad de las señales de radio de alta frecuencia para propagarse bordeando esquinas o para difractarse en torno a obstáculos. Es decir, debe existir un camino directo sin obstáculos para la propagación de la señal radio entre las antenas transmisora y receptora. Si desde el emplazamiento de una de las antenas puede verse la otra, entonces se dice que existe visión directa. Normalmente, suelen visitarse los posibles emplazamientos y comprobarse la existencia de visión directa como fase previa a la instalación de los equipos de comunicaciones. En el caso de enlaces de corto alcance, la visión directa puede limitarse simplemente a una cuestión de qué altura deben tener las torres o mástiles donde se sitúen las antenas. Sin embargo, es evidente que ello no constituye la solución más sencilla o económica. En cambio, resulta más práctico la búsqueda de zonas geográficas prominentes con buena visibilidad o edificios altos, lugares ideales para la instalación de estaciones base que deben concentrar el tráfico de múltiples enlaces punto a punto. Ahora bien, las antenas no siempre se encuentran en edificios altos, y lo que ocurre más a menudo, ambos extremos del enlace es difícil que se encuentren simultáneamente en lugares favorables.
Para comprobar la existencia de visión directa entre las antenas, deben visitarse los emplazamientos donde se tiene previsto instalarlas y realizar una serie de comprobaciones y tareas que se detallan a continuación:
- Determinación de las coordenadas exactas de los extremos del radioenlace (latitud, longitud y altura sobre el terreno) ayudándose de un receptor GPS o smartphone.
- Determinación de la orientación del enlace e indicación sobre un mapa de la zona. Esto ayudará a la localización de posibles obstáculos y elementos significativos sobre el mapa.
- En el caso de enlaces de corto y medio alcance se puede comprobar la existencia de visión directa con ayuda de unos prismáticos. La localización visual del otro extremo del enlace puede realizarse con ayuda de una brújula o valiéndose de alguna marca o elemento significativo del mapa. Se debe tener cuidado con los campos magnéticos generados por los motores de las salas de máquinas de los ascensores de la azotea y que pueden falsear la lectura de la brújula. Si no se consiguiera identificar visualmente el otro edificio donde se va a situar la antena, puede servir de ayuda una segunda persona situada en dicho edificio y que emita algún tipo de destello de luz, con un espejo por ejemplo, en el caso de un día soleado.
- En el caso de falta de visión directa debido a algún tipo de obstáculo, resulta necesario determinar la altura del mástil para evitar la obstrucción. El procedimiento que suele emplearse es similar al anterior, solo que ahora puede utilizarse por ejemplo un globo de helio de color llamativo y sujeto por una cuerda. Una persona situada en el extremo opuesto va elevando el globo hasta que resulte visible a través de los prismáticos.
- Una vez asegurada la visión directa, conviene comprobar que la primera zona de Fresnel se encuentra libre de obstáculos. En este caso conviene prever que el entorno resulta cambiante con el tiempo y con la época del año: construcción de nuevos edificios, árboles que crecen, nieve que se acumula en los tejados en invierno, tráfico aéreo, etc. Adicionalmente, se debe asegurar que no existe ningún obstáculo cerca de la posición de ambas antenas. En especial, superficies metálicas u otras antenas transmisoras dirigidas hacia la nuestra. Resulta interesante documentar todas las comprobaciones por medio de fotografías que puedan ayudar posteriormente.
Un factor importante de degradación en sistemas que operan a altas frecuencias lo constituye la vegetación existente en las inmediaciones del radioenlace. En ciertas ocasiones, el radioenlace puede verse accidentalmente obstruido por árboles o incluso azoteas de edificios en entornos urbanos. En estos casos, el campo electromagnético presente en la antena receptora puede modelarse como la suma de la onda directa proveniente del transmisor, y multitud de pequeñas ondas dispersadas por los edificios adyacentes y por las hojas de los árboles cercanos. Dado que las fases de estas ondas son aleatorias, las señales resultantes pueden estimarse de forma estadística. El resultado final de sumar todas las contribuciones suele modelarse mediante una distribución de Nakagami-Rice.
En general, la gran variedad de edificios, tipos de terreno y vegetación a considerar en una determinada zona susceptible de instalar un sistema de radiocomunicaciones, hace que sea extremadamente difícil proporcionar reglas de diseño generales para estimar la cobertura. La utilización de herramientas informáticas de trazado de rayos y de modelado de obstáculos a partir de información preliminar sobre la zona reduce la complejidad de diseño del sistema. Sin embargo, la realización de mediciones experimentales es indispensable para validar los modelos y proporcionar confianza a los resultados de las predicciones.
Antenas..!!
Las antenas externas se conectan a los equipos wireless mediante un cable. Salvo que sea muy corto, lo normal es que el cable que une el dispositivo wireless con la antena sea un cable de tipo coaxial, similares a los de antena de televisión pero con una impedancia diferente. Hablamos de 50 ohmios en comparación a los 75 ohmios que suelen ser los típicos de televisión. Por lo tanto no valen los cables normales que se usan en los equipos para recepción de la televisión analógica terrestre o digital. Los cables coaxiales se caracterizan porque disponen de un conector central (normalmente denominado activo) rodeado de una malla metálica concéntrica que le protege de las interferencias que son muchas en el campo radioeléctrico en que operan habitualmente las tarjetas y los punto de acceso inalámbricos, El cable de televisión es un buen ejemplo de cable coaxial pero como ya hemos dicho no es valido para redes wireless.
Para conectar el cable a la antena y a los dispositivos inalámbricos , se utilizan los conectores. Tanto la antena como algunos equipos wirelessdisponen de un conector donde se deben enchufar sus correspondientes conectores de los extremos de cable. Para poder llevar a cabo esta operación, existen unos conectores conocidos como de tipo macho y otros como de tipo hembra. Es obvio que solo los conectores de distinto sexo pueden conectarse entre si. Por ejemplo, en la antena suele haber como ya hemos dicho anteriormente un conector de tipo hembra y en el cabe, uno de tipo macho. Esto permite conectar el cable a la antena.
Tanto el cable, como cada conector, añaden perdidas a las señales de radio wireless. Para evitar estas perdidas, aparte de utilizar cables y conectores de calidad. hay que procurar utilizar un cable lo mas corto posible y el numero de conectores imprescindible. El numero de conectores dependerá de las tarjetas y antenas que dispongamos, la calidad dependerá de nuestro bolsillo y la longitud vendrá determinada por el tipo de cable que queramos usar, por lo caro que pueda valer, por la distancia a la antena, en definitiva por su perdida, imaginemos que tenemos una buen antena pero por estar demasiado lejos a la tarjeta wifi y debido a que nuestro presupuesto es limitado el tipo de cable es de los mas malos, posiblemente lleguemos a perder la ganancia obtenida en la antena. Por lo tanto valorar todos estos aspectos. Además intentar evitar en la medida que sea posible utilizar conectores para extender la longitud de cableo para adaptar diferentes tipos de cables o conectores. Reducirlo siempre a la máxima expresión y no hagáis nunca empalmes entre cables, si necesitamos uno mas largo, siempre es mejor adecuar la instalación con un cable nuevo aunque sea de menos perdida y por lo tanto de mayor calidad pero en contraposición mas caro.
Tipos de conectores.
La utilización de los conectores parece muy sencilla, pero todo se complica por el hecho de que no existe una regulación que especifique como deben ser los conectores. Esto trae consigo que existan muchos modelos distintos de conectores. Algunos muy extendidos como los RP-SMA y otros específicos de un fabricante, los llamados conectores propietarios. Por ejemplo algunos usan conectores TNC, otros BNC, otros SMA y/o RP-SMA (SMA Reverse) y algunos conectores de diseño propio. El hecho se complica aun mas si tenemos en cuenta que el tipo de conector de la antena suele ser distinto del conector de la tarjetas inalámbricas. A partir de cierta potencia suelen ser del tipo N-Hembra.
La mayoría de los equipos inalámbricos (adaptadores wireless y puntos de acceso, así como los routers inalámbricos, pero recordad que un router inalámbrico no es mas que un router normal al cual se le incorpora internamente un punto de acceso wireless) disponen de un conector para enchufar una antena externa. Los puntos de acceso mayormente viene ya con su propia antena integrada. Y respecto a las tarjetas; Las mas usuales con este tipo de conector son las que se ensamblas en un PC de sobremesa, o sea interfaz PCI. Lo normal seria que todos los equipos se comercializaran con un conector para poder conectarle una antena externa, pero como ya sabéis la mayoría de las tarjetas con interfaz USB y PCMCIA no cumplen con este requisito, y menos las tarjetas Mini-PCI que se incorporan en los portátiles. Y por consecuencia intentamos siempre manipular este tipo de equipos con el riesgo que ello conlleva.
Los tipo de conectores mas comunes (aunque no todos validos para el mudo wireless) son lo siguientes:
1.- N - Navy (marina)
Es el conector mas habitual en las antenas de 2.4 GHz (recordad que esta frecuencia es la especifica para el estándar 802.11b/g, para el estándar 802.11a nos encontramos con la 5Ghz. Dicho estándar esta en desuso y en el mercado la mayoría de dispositivos se centran en el 802.11g. Trabaja bien con frecuencias de hasta 10GHz. Es un conector de tipo rosca. Estos conectores tiene un tamaño apreciable y, a veces se confunden con los conectores UHF. La gran diferencia es que estos últimos (los UHF) no son validos para frecuencia de 2.4GHz. Es muy raro y inusual encontrase tarjetas y punto de acceso con este tipo de conectores, al contrario que en las antenas. Es muy fácil de trabajar con el. Y muy útil para el montaje propio de antenas caseras, sobre todo el de tipo chasis para ensamblarlo en el cuerpo de la antena, y su alojamiento para soldar un trozo de cobre grueso que habitualmente se usa para montar la parte activa mas importante de la antena.
2.- BNC (Bayonet Navy Connector)
Conector tipo bayoneta de la marina. Es un conector barato utilizado en las redes ethernet del tipo 10Base2. Es un tipo de conector muy común, pero poco apto para trabajar en la frecuencia de 2.4GHz.
3.- TNC (Threaded BNC)
Conector BNC roscado. Es una versión roscada del conector BNC. Este tipo de conector es apto para frecuencias de hasta 12GHz.
4.- SMA (Sub-Miniature Connect)
Conector subminiatura. Son unos conectores muy pequeños, van roscados y trabajan adecuadamente con frecuencias de hasta 18GHz. Dentro de este tipo, nos encontramos con una subclase que son los llamados reverse (RP-SMA), y estos últimos son las mas utilizados en la mayoría de las tarjetas inalámbricas con interfaz PCI.
5.- SMC
Se trata de una versión todavía mas pequeña de los conectores SMA. Son aptos para frecuencias de hasta 10GHz. Su mayor inconveniente es que solo son utilizables con cables muy finos (con alta perdida). El conector SMB es una versión del SMC con la ventaja que se conecta y desconecta mas fácilmente.
6.- APC-7 (Amphenol Precision Connector)
Conector Amphenol de precisión. Se trata de un conector con muy poca perdida, y muy caro, fabricado por la empresa que lleva su nombre (Amphenol). Tiene la particularidad de que no tiene sexo.
El motivo fundamental y principal por lo que se utiliza una antena externa no es alejar la antena del equipo wireless, sino poder conseguir aumentar el alcance de este equipo. Esto quiere decir que, para instalar una antena externa, no se debe pensar en unir la antena con el equipo wifi con un largo cable, sino todo lo contrario. El cable introduce perdidas en la señal que van desde los 0.05 a 1dB por metro y a precios desde 1 a 50 euros por metro (dependiendo de la calidad del cable). POr lo tanto, a menor longitud del cable, menores perdidas. Hay instalaciones que idealmente esto no es así, es decir necesitamos mas longitud de cable para poder salvar un obstáculo muy grueso , por ejemplo una pared de hormigón armado de grueso considerable. Pero evitarlo en la medida que se posible, y determinar el tipo de cable mas adecuado para vuestra instalación y por supuesto apropiado para vuestra economía.
Por otro lado, el cable tiene soldado o crimpado un conector en cada extremo. Como los conectores pueden encontrase en cualquier tienda especializada, cualquiera puede fabricarse un cable con sus respectivos conectores, lo que habitualmente llamamos pigtail. Sin embargo es recomendable comprar el cable completo por sus conectores ya puestos. La razón viene dada por el siguiente motivo, soldar o crimpar conectores y/o cables es un arte y una ciencia que requiere contar con experiencias para obtener resultados óptimos.
Para comprar el cable, hay que asegurarse que sea optimo para la frecuencia de 2.4GHz. Un cable puede ser muy apropiado para se utilizado en aplicaciones de televisión y video y no ser adecuado para el mundo wireless. Elegir el cable adecuado es casi tan importante como elegir la antena adecuada. Todos los cables introducen perdidas, pero unos introducen mas perdidas que otros.
Quizás, los cables mas usados en la frecuencia de wireless (wifi) sean los de tipo de LMR. Estos son unos cables fabricados por Times Microwave Systems (www.timesmicrowave.com). Una alternativa son los cables Heliax fabricados por Andrew Corporation (www.andrew.com). Estos son unos cables que introducen muy poca perdida a la señal pero a cambio de un alto coste. También podemos interesarnos por los cables fabricados por Belden
jueves, 16 de agosto de 2012
Anti-malware..!
Anti-malware
Se llama "Malware" a todo archivo con contenido de carácter malicioso para un equipo informático. Esto no se limita a los virus, pues existen otros muchos archivos capaces de causar daños importantes en un ordenador o en una red informática. Del mismo modo se llama "Antimalware" a aquel software que evita la infiltración en el sistema y el daño.
Bajo el término malware encontramos una amplia gama de amenazas:
- Virus: destruyen información y se reproducen automáticamente.
- Gusanos: se copian y se envían masivamente desde un ordenador infectado a todos los miembros de la lista de direcciones.
- Troyanos: abren puertas de acceso a un hacker que puede realizar remotamente cualquier tipo de actividad en el equipo afectado.
- Spyware: extraen información personal almacenada en un ordenador.
- Phishing: Es el envío de correos electrónicos que, aparentando provenir de fuentes fiables (por ejemplo, de entidades bancarias), tratan de conseguir datos confidenciales del usuario. Suelen incluir un enlace que lleva a páginas web falsificadas. Así, el usuario, cree estar en un sitio de confianza e introduce la información que, en realidad, llega a manos del estafador.
- Amenazas combinadas: Las últimas epidemias se han caracterizado por ataques combinados de varias amenazas a la vez o lo que se conoce como "blended threats".
- Dialers: marcan números de teléfono de pago automáticamente y sin permiso del usuario.
- Jokes: bromas que hacen perder el tiempo a los usuarios.
- Otros riesgos.- Hay software que sin ser malware propiamente dicho, podría suponer un riesgo para la red de la compañía si llegase a ser utilizado.
- Hacking tools son todas aquellas herramientas que se puedan utilizar para robar información, accesos no permitidos, etc.
- Security risks son aplicaciones que suponen una amenaza clara para la seguridad, y que sin embargo no pueden ser catalogados como virus. Por ejemplo, un programa dedicado a la creación de virus o troyanos.
La protección Anti-malware de los appliances Panda GateDefender detiene todos los tipos de amenazas mencionados a nivel del perímetro. Esto significa que el código malicioso nunca llega a entrar en la red corporativa.
Combinación de protección proactiva y en tiempo real y protección reactiva
La protección del software Anti-malware de Panda GateDefender combina 2 potentes técnicas que proporcionan la protección más completa:
- Inteligencia colectiva: automatiza la recogida, clasificación y detección de malware en tiempo real. La integración de la Inteligencia Colectiva aumenta de forma drástica la capacidad de protección y reduce el consumo de recursos al mínimo.
- Fichero de identificadores: Protección reactiva basada en una lista de malware conocidos que se actualiza automáticamente cada 15 minutos.
La combinación de las técnicas proactivas y reactivas reduce la ventana de riesgo y convierte a los dispositivos perimetrales Panda en las protecciones más actualizadas de la red.
Funcionamiento de la protección Anti-malware
Puesta en marcha. Atraviesa las siguientes fases:
- Instalación del Antimalware: configuración en 15 minutos como máximo, por la gran facilidad de uso de la consola de acceso.
- Análisis y desinfección: tras la instalación, analiza de inmediato todo el tráfico entrante y saliente, ejecutando las acciones definidas por el administrador.
- Actualización Incremental de firmas: Cada hora se descargan las nuevas firmas que se añaden al fichero de identificadores de malware, de manera automática y transparente para el usuario.
- Actualización local: Es posible actualizar la protección contra un servidor local en lugar de a través de Internet para redes en entornos de seguridad restringida.
Destino del malware. El administrador decide las acciones a realizar ante el malware detectado:
- Desinfectar el Malware: El fichero conteniendo el malware será desinfectado
- Eliminar: Se elimina el fichero infectado
- En caso de tratarse de un malware que llega adjunto a un correo SMTP se puede:
- Eliminar el mensaje completo
- Eliminar sólo el adjunto
Análisis. El administrador decide la configuración de la protección:
- Protocolos a analizar: http, FTP, SMTP, POP3, IMAP4 y/o NNTP
- Tipos de malware a detectar:
- Sitios de confianza: Dominios internos que se excluyen del análisis Anti-malware, mejorando el rendimiento.
Beneficios del Antimalware
- Protección completa, proactiva y en tiempo real: Detiene todo tipo de malware antes de que entren en la red, mediante el análisis de los 7 protocolos de comunicación más utilizados (HTTP, HTTPS, FTP, SMTP, POP3, IMAP4 y NNTP).
- Optimiza el ancho de banda y los recursos: Reduce la carga de trabajo de los servidores de la compañía, eliminando el tráfico innecesario en la red interna de la compañía y optimiza el uso del ancho de banda.
- Impide daños en la reputación corporativa: Evita que se envíe malware desde el interior de la empresa y que se instalen programas que puedan hacerlo.
Malware..!
Malware
Malware es el acrónimo, en inglés, de las palabras "malicious" y "software", es decir software malicioso. Dentro de este grupo se encuentran los virus clásicos (los que ya se conocen desde hace años) y otras nuevas amenazas, que surgieron y evolucionaron, desde el nacimiento de las amenazas informáticas. Como malware, se encuentran diferentes tipos de amenazas, cada una con características particulares. Incluso existe malware que combina diferentes características de cada amenaza. Se puede considerar como malware todo programa con algún fin dañino.Clasificación del Malware




































martes, 7 de agosto de 2012
Sistemas de Informacion - Android - Tecnologia en la Educacion
EL
CONTROL Y LOS SISTEMAS DE INFORMACIÓN
No puede haber
planificación ni control si no se dispone de la información necesaria en tiempo
y en forma . Es por ese motivo que las propuestas de modernización estatal
siempre incluyen el uso de técnicas y métodos para procesar información en
tiempo real. En general se busca articular las herramientas informáticas con la
obtención de datos primarios y la estructura organizacional.
Como una primera
aproximación a los sistemas de información, plantearemos una diferenciación
entre los sistemas necesarios para la gestión operativa (sistemas
“transaccionales”) y los sistemas que brindan información para planificar,
tomar decisiones y controlar. Los comentarios que siguen se centrarán en estos
últimos.
Hay varias maneras
de nombrar a los sistemas de información: sistema de información
organizacional, sistema de información y decisión, sistema de información de
gestión, sistema de procesamiento de datos. En general, cabe decir que, ante el
volumen y complejidad de los datos a procesar, es indispensable la
incorporación de herramientas informáticas. Pero, en contra de una generalizada
creencia, un sistema de información orientado hacia la planificación, la
decisión ejecutiva y el control no es simplemente un conjunto de computadoras.
Es un sistema de funciones y relaciones que vincula las herramientas
informáticas, la organización, el personal capacitado, la comunidad a la que se
sirve y la conducción del gobierno local. Técnicamente, lo esencial de ese
sistema es la información, registrada, procesada y comunicada mediante
computadoras, programas informáticos y técnicos idóneos.
El objetivo de toda
información es describir y explicar situaciones reales mediante datos
cuantitativos y cualitativos, numéricos, gráficos, conceptuales, relacionales,
para direccionar la acción política en el marco de un contexto dinámico. Con
respecto a la planificación y la toma de decisiones, la información cumple las
siguientes funciones:
• Reduce el nivel
de incertidumbre.
• Permite prever la
aparición de problemas o desviaciones.
• Disminuye el
tiempo de reacción ante nuevas situaciones.
• Eleva el nivel de
racionalidad de las decisiones.
• Optimiza la
eficacia y eficiencia de las acciones.
En un sistema de
información, las diversas áreas de la organización procesan y suministran en
forma sistemática y homogénea la información propia, compatible con la
información del resto. El sistema vincula todos los datos y los pone a
disposición de los usuarios / productores de información. Es fundamental esa
sistematización, para asegurar la conectividad técnica (protocolos de
comunicación, soft de soporte, medios magnéticos, etc.) y la conectividad
funcional (que datos almacenar y que características deben tener).
Esa información
debe fluir a través de una red o malla, con múltiples posibilidades de
relación, en una comunicación multidireccional, con variados niveles de acceso
y jerarquías de usuarios. También deben establecerse relaciones con otras
organizaciones, para recibir y dar información.
Una buena base para
los sistemas de información en el ámbito de la administración pública son los
sistemas de información geográfica (SIG), que son bases de datos relativos al
territorio y su dinámica, con reglas para su procesamiento y precisas
“geo-referencias”. Sobre esa base, más los datos que genera la organización, se
pueden elaborar indicadores de gestión, así como información sociodemográfica,
económica y de infraestructura. En el caso de una gestión municipal, por
ejemplo, se pueden distinguir dos tipos de información: sobre la ciudad y sobre
la gestión. En un apretado resumen, la información procesada disponible suele
referirse a los siguientes aspectos:
• Información sobre la ciudad:
Económica: Precios,
actividad económica, recaudación, presión tributaria, poder adquisitivo,
ocupación, desocupación, subocupación, etc.
Hábitat:
Infraestructura, estructura vial, equipamiento social, desarrollo territorial,
uso del suelo, transito y transporte, medio ambiente; demografía, vivienda,
villas de emergencia, estado sanitario, pobreza, encuesta de hogares,
seguridad.
• Información sobre la gestión:
General: Recursos
humanos, materiales y financieros.
Sectorial: De cada
una de las áreas de la organización.
Desarrollo urbano:
Obras viales, señalización, iluminación, cloacas, gas, espacios verdes,
arquitectura, planeamiento urbano.
Salud: Atención
primaria, unidades primarias, unidades de mayor complejidad, servicio
odontológico, control alimentario, bromatológico y ambiental.
Educación, cultura
y turismo: Educación, actividad cultural, turismo, espectáculos públicos.
Administración
general: Personal, imprenta, apoyo de gestión, Registro Civil, Cementerios.
Desarrollo social y
participación vecinal: Guarderías, atención materno-infantil, hogares de
ancianos, centros vecinales, centros de la tercera edad, deportes, recreación.
Medio ambiente:
Polución y contaminación del aire, preservación del suelo, residuos tóxicos y
contaminantes, sistema hidrológico, tratamiento de residuos.
La implantación de
un sistema integrado de información, con frecuencia plantea inconvenientes,
tales como: Reticencia a compartir información -Desparejo nivel de
sistematización -Carácter político de la organización -Modalidades de la toma
de decisiones -Variedad y dispersión de nomenclaturas y unidades -Hábitos de
planificación “subjetiva” -Escepticismo ante la complejidad del sistema
propuesto.
Para implantarlo
con éxito hay que definir primero los objetivos del sistema y el nivel de
detalle con que trabajará. Es importante aprovechar toda la información ya
existente, sistematizada o no. Finalmente, hay que buscar que los sistemas
entreguen resultados prácticos y tangibles.
Guillermo Inchauspe
concluye afirmando que “este tipo de desarrollos tiene características
técnico-políticas, donde es necesario combinar los conocimientos y metodologías
específicas del desarrollo de sistemas informáticos con una cuota importante de
“gerenciamiento”, que garanticen la efectiva y eficiente instalación y puesta
en marcha.”
Los diversos tipos
de control suelen definirse tomando como criterio de diferenciación el momento
de la actividad general en que el control se realiza. Desde ese punto de vista
se habla de:
• Control preliminar: Este tipo de control trata de
prevenir la ocurrencia de problemas durante la posterior ejecución de las
actividades. Es una verificación de los atributos, cantidades y disponibilidad
de recursos necesarios, en relación con los niveles de actividad previstos. Las
técnicas de control habituales en este tipo de control son: el proceso de
selección (por ejemplo, la selección de candidatos para un puesto, a fin de
prever su buen desempeño futuro); la inspección de materias primas y materiales
necesarios (por ejemplo, la verificación de existencias y de calidad de los
elementos para una campaña de vacunación); el presupuesto de capital (para
saber, por ejemplo, cuanto dinero exigirá la ejecución de un proyecto y cada
una de sus etapas o fases); y el presupuesto financiero (por ejemplo, para
asegurar que las fuentes de financiación y el flujo de fondos acompañarán a la
ejecución física de las actividades).
• Control concurrente: Este tipo de control se realiza “en
paralelo” con la ejecución de las actividades y tiene por objeto la detección
temprana de posibles desviaciones, y la verificación de la correcta ejecución
de las mediciones de desempeño, con miras al control de resultados. También se
incluye en este tipo de control la supervisión directa de la gerencia mediante
observación personal y ocasionales intervenciones y directivas dadas en cada
caso.
• El control de resultados: Es el más habitual, o por lo menos el
que más se asocia con la idea general de la función de control. Se realiza una
vez finalizada la actividad (por ejemplo, al terminar la ejecución de un
proyecto) o al cabo de un determinado período de tiempo (por ejemplo, los
balances o inventarios anuales). Son datos definitivos, que nos informan sobre
la medida en que se alcanzaron los objetivos del proyecto o del período que
abarca el ejercicio. Este último caso permite también medir la evolución en
períodos sucesivos. Es un procesamiento de datos históricos, cuya finalidad
última es corregir el futuro.
Las técnicas más
usuales en este tipo de control son los presupuestos, los costes estándar, los
estados financieros, el control de calidad de los productos terminados, la
evaluación del desempeño de los empleados, etc. En el caso de los servicios,
públicos o privados, debido a su carácter intangible, es frecuente acudir como
fuente de información a las encuestas de satisfacción de los clientes o
ciudadanos.
En todo proceso
administrativo , hay que hacer de los datos la base de las decisiones y las
acciones. Hay que discutir las cuestiones a partir de datos, de hechos. Usar
índices numéricos permite, en muchos casos, comprender la situación actual,
basar los planes de futuro, medir los avances, determinar las prioridades,
solicitar los medios necesarios, determinar a priori las consecuencias
probables de los cambios, comparar resultados, informar a los interesados,
reconocer los méritos y apoyar el compromiso de los empleados y directivos.
Los datos recogidos
no deben ser necesariamente muchos, sino significativos; registrados y usados
correctamente, mediante muestreos aleatorios y métodos de análisis estadístico.
No se deben distorsionar los resultados, ni complicar las cosas, ni buscar más
o menos datos que los necesarios, ni dejar de tener en cuenta los diferentes
contextos de la información.
La información
sobre resultados debe ser “fácil de ver”, con indicadores visibles y simples,
que prácticamente cualquier persona pueda entender. Aunque los aspectos
organizacionales y humanos suelen ser lo que más llama la atención, no debe descuidarse
la importancia de la tecnología, del uso del control estadístico de procesos,
etc.
Tienen particular
importancia los ciclos de regulación y control, para el mantenimiento de los
procesos en su correcto funcionamiento; para la mejora de los procesos (más
simples, más baratos, más rápidos, más seguros); y para las acciones
correctivas cuando sean necesarias.
Un sistema de
información es un conjunto de elementos que interactúan entre sí con el fin de
apoyar las actividades de una empresa o negocio. Para esto se debe de contar
con el equipo computacional: el hardware necesario para que el sistema de
información pueda operar y el recurso humano que interactúa con el Sistema de
información, el cual está formado por las personas que utilizan el sistema.
Como sabemos un
sistema de información realiza cuatro actividades básicas: entrada,
almacenamiento, procesamiento y salida de información; por lo que se puede
decir que la finalidad de los sistemas de información, como las de cualquier
otro sistema dentro de una organización, es procesar entradas, mantener
archivos de datos relacionados con la organización y producir información,
reportes y salidas.
Los sistemas de
información están conformados por subsistemas que incluyen hardware, software,
medios de almacenamiento de datos para archivos y bases de datos. El conjunto
particular de subsistemas utilizados es lo que se denomina una aplicación de
sistemas de información.
Importancia:
Las organizaciones no pueden existir sin
información.
La información es el catalizador de la
administración.
La información permite la reunión de las
funciones administrativas.
El sistema de información, es el sistema
común que fusiona los sistemas de recursos materiales, financieros, físicos y
humanos como un ente íntimamente ligado.
La importancia
principal de un Sistema de Información es ayudar a que la Organización logre
sus objetivos al proporcionar a los gerentes conocimientos de las operaciones
habituales de la organización con el fin de que puedan controlar, organizar y
planear con más efectividad y eficiencia. En resumen, un Sistema de Información
le proporciona a los gerentes información y apoyo para tomar decisiones
efectivas, y les ofrece retroalimentación referente a las operaciones diarias.
En este procedimiento, el Sistema de Información añade valor a los procesos
dentro de la organización.
Requisitos de un Sistema de
Información:
Conocimiento sobre los objetivos de la
organización, ambiente, operaciones, recursos, políticas y procedimientos.
Equipos necesarios para almacenar, procesar
y recuperar información.
La administración de la información,
corresponde a la utilización eficaz y el control de la información.
Uso De Las Nuevas Tecnologías
Vivimos en una
época que está marcada por la magnitud de la velocidad e intensidad de los
cambios en los diversos órdenes de la vida, donde la información y el
conocimiento han pasado a constituirse en los bienes más preciados. Por este
motivo, se dice que esta sociedad actual es la "sociedad de la
información", o que estamos en la "era de la comunicación".
Uno de los factores
que más ha incidido en estos cambios, tiene que ver con el uso de nuevas
tecnologías de información y comunicación, que se ha materializado en la
constitución de un sistema mundial de comunicación que puede operar por
distintos canales de manera simultánea, dando lugar a lo que conocemos como
multimedia y al surgimiento de una nueva realidad espacio-temporal, el
ciberespacio.
En la base de este
desarrollo convergen la microelectrónica, las computadoras y las
telecomunicaciones, sustituyendo canales que venían operando de manera separada
(telefonía, fax, radio, televisión, etc.) por una sola tecnología: la
transmisión de información digital a través de interfaces o switches, que
funcionan como "traductores" que permiten la comunicación de
computadoras configuradas de manera distinta.
La exponente
paradigmática de esta convergencia tecnológica es la Internet o la red de redes
de computadoras conectadas entre sí alrededor del mundo, que entre otras cosas
ofrece servicios de comunicaciones (correo electrónico, tele conferencias),
servicios de información organizada (banco de datos, boletines electrónicos) y
la posibilidad de dar y recibir información del conjunto de la red (Web).
Hasta hoy la
Internet se ha desarrollado como un sistema descentralizado, horizontal, que
puede movilizar cualquier cantidad de información, de manera bidireccional o
multidireccional y con un gran potencial para la interacción. Por estas
características es un medio único para potenciar o fomentar la articulación de
redes y grupos de interés.
El despliegue de
las nuevas tecnologías de información y comunicación se ha dado a un ritmo tan
acelerado que no ha permitido la formulación de de conceptos que permitan interpretarlas,
lo que ha llevado al uso de metáforas para hablar sobre las mismas, como la de
la "autopista de la información". Por ello, no se ha tomado en cuenta
el impacto que las mismas han tenido en todos los órdenes de la vida; las consecuencias
deberán ser analizadas a posteriori.
Las nuevas
tecnologías han repercutido en todas las esferas de la convivencia social y
están lejos de haber concluido. Así, la producción basada en el uso intensivo
de la fuerza de trabajo ha tenido que cede su preponderancia al factor
tecnológico sustentado estratégicamente en la información y el conocimiento,
estableciendo nuevas lógicas organizativas para transformar la industria
centralizada en una red de unidades productivas descentralizadas a lo largo y
ancho del planeta, donde lo importante es que fluya la información, más que las
personas y los productos.
Desde este punto de
vista no es posible dejar de mencionar la importancia que en tales procesos
tienen las actividades de formación profesional, ya que el desarrollo de las
áreas antes mencionadas se produce mediante la capacitación de los recursos
humanos. El creciente dominio tecnológico en todos los campos, conducirá a
niveles de especialización cada vez más altos, lo que a su vez llevará a una
modificación total de los criterios convencionales de conducción de las
organizaciones. Además, para que la organización pueda mantenerse en el mercado
será de vital importancia que lleve a cabo procesos de innovación tecnológica,
entendida como un proceso en el que la organización se proponga lograr una
aplicación rentable de de una nueva tecnología, lo cual sin duda será un factor
crítico para su supervivencia y crecimiento. De allí la importancia de lograr
una comprensión profunda del proceso de innovación, que permita controlarlo y
estimularlo, así como ponerlo al servicio de los objetivos empresariales y
evitar cometer errores que afecten su desarrollo.
La tecnología es un
factor determinante de:
Los recursos humanos requeridos por una
organización, e indirectamente de la predisposición de los empleados.
Ciertas características generales de la
estructura y procedimientos de la organización.
El diseño de trabajos individuales y de
grupo, y en forma indirecta determina las formas y la estructura de la
sociedad.
El impacto sobre
los procesos de conocimiento ha sido de tal contundencia que se considera que
habría que esperar una o dos generaciones para poder asimilar la nueva realidad
creada con el despliegue de las computadoras, que pueden realizar funciones que
antes eran prerrogativas de la mente humana, la conformación de inagotables
bancos de datos, la repercusión de lo audiovisual y el multimedia sobre lo
escrito. Y en el plano comunicacional, conceptos básicos como el que establecía
la separación entre emisor, canal y receptor han perdido vigencia; ahora, hay
un sentido integral y complejo del proceso.
Otra de las
características intrínsecas de las nuevas tecnologías es la ambigüedad. Es tan
así, que mientras ofrecen un enorme potencial para facilitar experiencias
descentralizadas y participativas, desde la dimensión local a la planetaria;
por otro lado, pueden favorecer la aparición de estructuras altamente
centralizadas y autoritarias. Dicho de otro modo, la globalización de la
comunicación puede dar paso a sociedades basadas en la apertura, la tolerancia
y la libertad, o bien a la imposición hegemónica de un determinado modelo, en
desmedro de otras alternativas.
Hoy en día una
persona que no tenga el conocimiento básico del uso y aplicación de
herramientas de informática se puede considerar una persona analfabeta. El
desarrollo actual de todos los sectores y niveles de la sociedad, no puede
operar sin una simple computadora ya que la dependencia del hombre hacia la
máquina se esta volviendo una realidad.
Ejemplos claros y
concretos nos podemos encontrar en diferentes momentos de la vida diaria. En
las organizaciones forzosamente necesitan archivar, transferir, redactar e
imprimir documentos los cuales la rapidez, claridad y eficacia son, y deben
ser, su principal objetivo a alcanzar. En otro caso concreto cualquier empresa
no importa su razón social, ya sea comercial, de servicio, o alguna
organización no lucrativa hacen uso de la computadora para comunicarse con
otras personas, sucursales, u oficinas centrales ya sea vía correo electrónico,
Internet, tele conferencia etc.
De allí parte la
competitividad, en la rapidez de la información, las organizaciones dependen actualmente
de las computadoras para manejar y almacenar información de cualquier tipo
dependiendo del rubro en que se desempeña. Una compañía que tenga un alto
índice de competitividad por el producto o servicio que ofrecen tienen que
ponerse a la par o superar a las demás y una alternativa es cambiando la
plataforma o bien reemplazando el equipo tecnológico que maneja y guarda la
información
Actualmente existen
muchos software que administran organizaciones enteras, estos varían según su
uso, su rapidez, su nivel de complejidad, precio valor, rapidez, tamaño y
capacidad, marca, etc.
La amenaza de
nuevos competidores en el mundo de la informática es relevante ya que para una
fecha sale un programa nuevo y en el periodo de un año ya es casi obsoleto
debido a la rapidez en que la competencia inventa algo más novedoso y rápido.
La informática como
herramienta es competitiva cuando es capaz de mantenerse constante en un
mercado evolutivo donde cada vez las exigencias son mayores (capacidad,
rapidez, eficiencia).
Prototipos por Pantallas
La interface entre
el sistema y el usuario es la pantalla de visualización, esta es el vehiculo
para presentar la información tal como ésta es proporcionada al sistema o como
es recuperada de éste.
Los prototipos de
pantalla permite evaluar la posición de información sobre la pantalla, los
encabezados, los botones, mensajes. Tambíen permite la reacción de los usuarios
por la cantidad de información sobre la pantalla. La ceación de un prototipo de
pantalla conduce a:
Que debe presentarse como información sobre
la pantalla principal
Cuál pertence a una pantalla de detalle
Prototipos para Procedimientos de
Procesamientos
Las funciones de
procesamiento incluye entradas, cálculos, recuperar información y actividades
de salidas. Como los datos pocas veces son ingresados de la forma correcta o en
la secuencia válida, es por ello que la aplicación se diseña para asegurar la
detección de errores.
El objetivo es
determinar si los procedimientos de aplicación fueron desarrollados adecuadamente.
La evaluación de
los procedimientos y la observación de errores y equivocaciones cometidas por
los individuos cuando emplean el prototipo, pueden sugerir la adición de
características de manejo de errores que no se habían anticipado.
Prototipos de Funciones Básicas
Para determinar los
requerimientos de una aplicación no es necesario desarrollar todos los módulos
del sistema, sino los básicos, son aquellos que forman el núcleo de la
aplicación.
Incluye las
funciones primarias de la aplicación como edición y validación, y excluye las
secundarias como el manejo de archivos que no forman parte del procesamiento
esencial.
SISTEMAS
OPERATIVOS ANDROID
Android es un
sistema operativo móvil basado en Linux, que junto con aplicaciones middleware8
está enfocado para ser utilizado en dispositivos móviles como teléfonos
inteligentes, tabletas, Google TV y otros dispositivos.9 Es desarrollado por la
Open Handset Alliance, la cual es liderada por Google. Este sistema por lo
general maneja aplicaciones como Market (Mercado) o su actualización, Google
Play.
Fue desarrollado
inicialmente por Android Inc., una firma comprada por Google en 2005.10 Es el
principal producto de la Open Handset Alliance, un conglomerado de fabricantes
y desarrolladores de hardware, software y operadores de servicio.11 Las
unidades vendidas de teléfonos inteligentes con Android se ubican en el primer
puesto en los Estados Unidos, en el segundo y tercer trimestres de 2010,12 13
14 con una cuota de mercado de 43,6% en el tercer trimestre.15 A nivel mundial
alcanzó una cuota de mercado del 50,9% durante el cuarto trimestre de 2011, más
del doble que el segundo sistema operativo (iOS de iPhone) con más cuota.16
Tiene una gran
comunidad de desarrolladores escribiendo aplicaciones para extender la
funcionalidad de los dispositivos. A la fecha, se han sobrepasado las 600.000
aplicaciones (de las cuales, dos tercios son gratuitas) disponibles para la tienda
de aplicaciones oficial de Android: Google Play, sin tener en cuenta
aplicaciones de otras tiendas no oficiales para Android, como pueden ser la App
Store de Amazon o la tienda de aplicaciones Samsung Apps de Samsung.17 18
Google Play es la tienda de aplicaciones en línea administrada por Google,
aunque existe la posibilidad de obtener software externamente. Los programas
están escritos en el lenguaje de programación Java.19 No obstante, no es un
sistema operativo libre de malware, aunque la mayoría de ello es descargado de
sitios de terceros.20
El anuncio del
sistema Android se realizó el 5 de noviembre de 2007 junto con la creación de
la Open Handset Alliance, un consorcio de 78 compañías de hardware, software y
telecomunicaciones dedicadas al desarrollo de estándares abiertos para
dispositivos móviles.21 22 Google liberó la mayoría del código de Android bajo
la licencia Apache, una licencia libre y de código abierto.23
La estructura del
sistema operativo Android se compone de aplicaciones que se ejecutan en un
framework Java de aplicaciones orientadas a objetos sobre el núcleo de las
bibliotecas de Java en una máquina virtual Dalvik con compilación en tiempo de
ejecución. Las bibliotecas escritas en lenguaje C incluyen un administrador de
interfaz gráfica (surface manager), un framework OpenCore, una base de datos
relacional SQLite, una Interfaz de programación de API gráfica OpenGL ES 2.0
3D, un motor de renderizado WebKit, un motor gráfico SGL, SSL y una biblioteca
estándar de C Bionic. El sistema operativo está compuesto por 12 millones de
líneas de código, incluyendo 3 millones de líneas de XML, 2,8 millones de
líneas de lenguaje C, 2,1 millones de líneas de Java y 1,75 millones de líneas
de C++.
TABLET
Cómo está Android
en estos momentos en lo que se refiere a los dispositivos portátiles que se
supone que van a ser la base del futuro del comercio de productos electrónicos.
Bien es cierto que son los primeros pasos del sistema operativo en este ámbito
y que mejorarán, pero la situación actual es la que es.
En los pasados días
he tenido la oportunidad de probar diferentes tablets con Android y uno se da
cuenta del potencial que puede tener como sistema operativo, pero a la vez es
muy claro que queda mucho trabajo por delante.
La mayoría de
tablets que hay ahora en el mercado utilizando el SO de Google tienen la
versión 2.2 de Android. Esta versión ya fue calificada por la gran G como no
optimizada o diseñada para los tablets, por lo que todos los dispositivos que
tenemos a estas alturas entre nosotros podrían llegar a calificarse como
pruebas de mercado.
Al tratarse de un
“port” idéntico al que utilizan hoy en día muchos móviles, las características
de Android en las tablets son de sobra conocidas para todos: soporte para
Flash, notificaciones de las aplicaciones en una barra superior desplegable,
misma forma de administrar las aplicaciones, etc etc. Es más, a estas alturas
las aplicaciones especialmente diseñadas para tablets y Android brillan por su
ausencia por lo que tampoco podemos llegar a conocer exactamente el potencial
de la plataforma.
Sin ninguna duda es
Samsung con su Galaxy Tab quien, en estos momentos, puede presumir de tener el
mejor tablet con Android como sistema operativo. Sin embargo, y como ha
ocurrido en los últimos meses con los teléfonos móviles con dicho SO, es muy
probable que de aquí a un año el número de dispositivos disponibles crezca como
la espuma con el apoyo marcas como LG, Dell o Motorla.
CELULARES
Android es el nuevo
sistema operativo desarrollado por Google, para unos móviles mas rápidos,
intuitivos y potentes.
El avance
experimentado en los últimos años por el sector de la telefonía móvil ha sido
vertiginoso. Los celulares, que antaño eran un simple aparato usado para
realizar y recibir llamadas, mensajes y con algún que otro pobre juego
instalado, se han transformado en potentes dispositivos, con multitud de
aplicaciones, conexión a Internet, Facebook o incluso televisión.
Si está pensando en
adquirir un smartphone y tiene dudas, sepa que Android representa el último
escalón en esta particular evolución. A continuación se exponen las claves de
este sistema operativo.
Sistema Android
Android es una
plataforma o sistema operativo para celulares, el cerebro del dispositivo,
situado físicamente en el procesador, y es donde se originan las órdenes que
permiten al smartphone realizar la multitud de tareas, programas y aplicaciones
requeridas por el celular.
Características de Android
Android se podría
decir que es hijo de Linux, que no es otra cosa que otro sistema operativo
diseñado para ordenadores. La principal característica de Linux, heredada por
Android, radica en el sistema abierto de programación, es decir, contiene un
código libre, que permite a quien desee transformarlo, adaptarlo o modificarlo,
dependiendo de sus necesidades.
Principales ventajas de Android
Al ser un código
libre o abierto, la modificación, mejora y solución de problemas es más rápida
y eficaz, ya que todo el mundo puede acceder al mismo, al contrario que sucede
con otros sistemas operativos. Este último caso exige estar pendiente que la
compañía o empresa responsable del sistema operativo del celular en cuestión,
realice las mejoras o reparaciones necesarias, que en algunos casos pueden
demorarse incluso algunos meses.
Qué ofrece un celular con Android
Android es un
sistema operativo en continua evolución y mejora, lo que significa que muchas
de las ventajas que aquí se exponen irán rápidamente en aumento:
Resuelve cualquier web en flash, lo que
significa que es posible ver vídeos y acceder a juegos normalmente.
Aplicaciones en Android Market: contiene
miles de aplicaciones y no deja de crecer con nuevos contenidos para el
celular, y no tiene restricciones.
Android se instala en la mayoría de marcas
y operadoras, al contrario que otros sistemas operativos, y ofrece al usuario
la posibilidad de elegir el móvil que más le guste.
Desventajas de un móvil con Android
No todo son
ventajas con el sistema Android, ya que pueden surgir algunos problemas, por
ejemplo:
Al
ser un sistema de reciente salida, puede ocasionar algún problema menor.
Puede carecer de fluidez si la memoria del
móvil está saturada de programas y archivos.
Duración de la batería. El gasto de energía
de un móvil con Android es elevado, y si el usuario tiende a utilizar muchas
aplicaciones, se puede agotar rápidamente, y haría falta una aplicación para
optimizar la batería.
Exige descargar aplicaciones para cerrar
otras, que de lo contrario quedarían abiertas indefinidamente, gastando recursos
y haciendo que el dispositivo ralentice sus funciones.
Menos intuitivo que otros sistemas, y
requiere configurar una gran cantidad de aplicaciones para que funcione
correctamente, lo que exige mayor inversión en tiempo y dedicación por parte
del usuario.
Algunas aplicaciones pueden no funcionar
con una versión determinada de Android, ya que es un sistema que está en
continuo avance y modificación, lo que significa que para un celular con
Android 2.1, por ejemplo, no funcionarán aplicaciones Android versión 2.2 o
posteriores.
IMPLEMENTACION
DE LA TECNOLOGIA EN LA EDUCACION DEL ECUADOR
Hoy en día hay que
enfrentan la enorme tarea de mejorar la enseñanza de las ciencias para
satisfacer las demandas y desafíos de una economía globalizada. Las salas de
clase de la región deben ser transformadas en centros de aprendizaje abierto
que ofrezcan programas de ciencias basados en la práctica, el pensamiento y la
realidad. Las tecnologías de información modernas, si son utilizadas en forma
apropiada, ofrecen a todos el potencial para poder llegar a alcanzar la
vanguardia de la enseñanza de ciencias y. Para ello, se esta creando e
implantación de una red de educación virtual utilizando los últimos conceptos e
ideas de la educación a distancia, de tecnologías avanzadas y modos apropiados
de conectividad.
Este entorno cada
día adquiere más importancia, porque para ser activo en el nuevo espacio social
se requieren nuevos conocimientos y destrezas que habrán de ser aprendidos en
los procesos educativos.
Las nuevas
tecnologías de la información y de las comunicaciones están transformando la
sociedad , y en particular los procesos educativos.
Las redes digitales
son parte de ese cambio social, pero hay que tener en cuenta muchas tecnologías
coadyuvantes.
El teléfono, la
radio y televisión, el dinero electrónico, las redes telemáticas, las
tecnologías multimedia y la realidad virtual son tecnologías a tener en cuenta.
La Pedagogía habla
de educación para los medios, de alfabetización audiovisual y de alfabetización
informativa.
Las Nuevas
Tecnologías posibilitan la construcción de un nuevo espacio social.
Dicha
transformación es lo suficientemente importante como para que pueda ser
comparada con las grandes revoluciones técnicas como la escritura, imprenta, que
transformaron la educación.
El derecho a la
educación universal tiene que ampliarse, porque los espacios sociales se han
ampliado. Lo cierto es que el entorno digital emergente exige diseñar nuevas
acciones educativas, complementarias a las ya existentes.
No basta con
enseñar a leer, escribir y hacer cálculos matemáticos, además de introducir conocimientos
básicos de historia, literatura y ciencias. Todo ello es necesario y lo seguirá
siendo en los espacios naturales y urbanos en los que tradicionalmente se ha
desarrollado la vida social.
La globalización ha
sido favorecida y va acompañada de un amplio y vigoroso desarrollo tecnológico,
vinculado especialmente a las llamadas "nuevas tecnologías de
información" e internet, pero no es la tecnología en sí. Lo cual,
desgraciadamente, se confunde con mucha frecuencia.
Sin embargo, se
encuentra prácticamente disponible para cualquier persona o institución un
conjunto de herramientas de hardware y software para dar soporte a la actividad
individual y organizacional en el marco de una concepción global. La
convergencia de los medios tecnológicos (a diferencia de los conceptuales, que
parecen tender hacia la diversidad), la integración de servicios como los de
telecomunicaciones, cable, televisión e internet auguran una plataforma sólida
en el futuro inmediato.
La globalización ha
permitido, y muchas veces ha promovido, un cambio radical en la concepción de
la "educación", asociada a expresiones como "la era de la
información", "la supercarretera de la información", o "la
sociedad del conocimiento".
Hoy más que nunca,
se puede percibir las limitaciones del enfoque educativo formal, centrado en la
enseñanza, focalizado en el "aula física" y con un instructor
delante. Enfoque aún predominante en muchos países. Cuando un alumno conoce
otros entornos y personas, cómo viven, qué piensan, qué problemas enfrentan,
cuán semejante o diferente es de ellos, y descubre qué fácil es lograrlo; las
lecciones de anatomía o las frías ecuaciones de segundo grado caen por su
propio peso. Tal vez sea prematuro sacar conclusiones, pero nadie podrá negar
la potencia y valor educativo de una herramienta tan simple como el correo
electrónico, para vincular e integrar personas.
La educación global
requiere un cambio actitudinal importante en las personas a la par que una
modificación de políticas en las instituciones, especialmente en las educativas
y en los gobiernos.
Pareciera que a
regañadientes, los gobiernos incrementan tímidamente los recursos financieros
para el llamado "sector educación". He ahí el problema, lo educativo
es concebido como "un sector" que ahora requiere mayor dinero que
antes. Existe una explicación lineal insuficiente. Invertir en educación
(instrucción para ser más precisos) de los niños de hoy para que aprendan lo
que la sociedad necesitará de ellos mañana.
La información que
debe ser difundida a los estudiantes, por ejemplo, no puede continuarse
difundiendo a través del "docente de aula", labor para la cual los
maestros y cualquier otro profesional, cada día, son menos competentes. El
enfoque de "centro educativo", donde se sostuvo siempre que era
posible "encontrar" o tener acceso a todos los "recursos
educativos" necesarios para la formación del alumno, hoy es obsoleto. Pues
los recursos educativos actuales se hallan en la vida cotidiana y distribuidos
por el mundo.
Incluso el rol de
"facilitador" o "mediador" que parece ahora rescatarse para
el maestro, puede ser insuficiente o erróneamente formulado, cuando la
"educación" escapa a las "escuelas", cuando los niños -y
los mayores también- aprenden y se forman en la vida cotidiana, en el hogar, en
la calle, en la televisión, en el trabajo, ... en internet.
Entre los
beneficios más claros que los medios de comunicación aportan a la sociedad se
encuentra el acceso a la cultura y la educación, los avances tecnológicos y los
beneficios que comporta la era de la comunicación en que vivimos arrojan un
balance y unas previsiones extraordinariamente positivas. Sin embargo, algunos
expertos han incidido en que debe existir una relación entre la información que
se suministra y la capacidad de asimilación de la misma por parte de las
personas. Por ello, es conveniente una adecuada educación en el uso de estos
poderosos medios.
El saber cambia el
mundo, y nuestro mundo está cambiando con la prontitud de los saberes nuevos.
Por eso apenas atinamos a decir que nuestra época es distinta Por ello la
educación debe replantear sus objetivos, sus metas, sus pedagogías y sus
didácticas si quiere cumplir con su misión en el siglo, brindar satisfactores a
las necesidades del hombre, como dice Bill Gates en lo que trae el futuro"
Las mismas fuerzas tecnológicas que harán tan necesario el aprendizaje, lo
harán agradable y practico. Las corporaciones se están reinventando en torno de
las oportunidades abiertas por la tecnología de la información, las escuelas
también tendrán que hacerlo".
La virtualidad del
saber no supone un saber-menos, o un saber-peor. Tampoco supone un
saber-de-segundogrado o de segunda categoría. Antes bien, corresponde a una
transformación de los procesos mediante los que se aprende, constata (anota) y
explica el mundo, procesos que están en sintonía y dependencia con nivel de
desarrollo de los medios tecnológicos del actual momento histórico.
Por ello, cada vez
es preciso diseñar nuevos escenarios y acciones educativas, es decir, proponer
una política educativa específica para el entorno cibernético. Aunque el
derecho a la educación universal sólo se ha logrado plenamente en algunos
países, motivo por el cual hay que seguir desarrollando acciones de
alfabetización y educación en el entorno real. Este exige diseñar nuevas
acciones educativas.
Debemos proponernos
capacitar a las personas para que puedan actuar competentemente en los diversos
escenarios de este entorno. Por ello, además de aplicar las nuevas tecnologías
a la educación, hay que diseñar ante todo nuevos escenarios educativos donde
los estudiantes puedan aprender a moverse e intervenir en el nuevo espacio
telemático.
Las redes
educativas virtuales son las nuevas unidades básicas de dicho sistema
educativo, que incluye el diseño y la construcción de nuevos escenarios
educativos, la elaboración de instrumentos educativos electrónicos y la
formación de educadores especializados en la enseñanza en el nuevo espacio social.
Las interrelaciones
educativas en los entornos reales o naturales suelen ser presénciales, están
basadas en la vecindad o proximidad entre los actores o interlocutores y
requieren la coincidencia espacial y temporal de quienes intervienen en ellas.
En cambio, el
espacio virtual, cuyo mejor exponente actual es la red Internet, no es
presencial, sino representacional, no es proximal, sino distal, no es
sincrónico, sino asincrónico, y no se basa en recintos espaciales con interior,
frontera y exterior, sino que depende de redes electrónicas cuyos nodos de
interacción pueden estar diseminados en distintos lugares.
En el nuevo
milenio, las redes telemáticas son la expresión más desarrollada del entorno
virtual debido a su carácter multimedia, muy importante a efectos educativos, y
al grado de interactividad.
Han surgido nuevas
tecnologías de memorización, archivo y documentación, y la realidad virtual
abre nuevas posibilidades para el desarrollo de procesos perceptivos y sensoriales.
A través de las
redes electrónicas es posible teletrabajar, entretenerse, investigar y hacer
arte, entre otras muchas cosas. El entorno virtual es un nuevo espacio social
porque actividades sociales pueden desarrollarse en redes, no sólo en los hogares,
instituciones o empresas.
Al apoyar una
política educativa específica para la aulística virtual no se pretende que vaya
a sustituir la que ya se lleva a cabo en la sociedad actual. Las Universidades y
escuelas seguirán existiendo.
Lo que podría
ocurrir es que a los centros académicos se les superpongan redes educativas
digitales a través de las cuales se desarrollarían procesos educativos del
entorno virtual, complementarios a los entornos reales.
El derecho a la
educación universal tiene que ampliarse, porque los espacios sociales se han
ampliado. Lo cierto es que el entorno digital emergente exige diseñar nuevas
acciones educativas, complementarias a las ya existentes.
Los cambios ya se
vislumbran y llegarán otros que ni siquiera nos imaginamos. Tenemos que
prepararnos para ese nuevo entorno lleno de oportunidades, pero también de
incertidumbres. La tecnología y las telecomunicaciones en todas sus formas
cambiarán la forma de vivir, de trabajar, de producir, de comunicarnos, de
comprar, de vender. Todo el entorno será bien distinto. El gran imperativo será
él prepararnos y aprender a vivir en ese nuevo entorno. Ante toda esta dinámica,
el sistema educativo tiene un reto muy importante. Debe cuestionarse a sí
mismo, repensar sus principios y objetivos, reinventar sus metodologías
docentes y sus sistemas organizacionales. Tiene que replantear el concepto de
la relación alumno - profesor y el proceso mismo del aprendizaje, los
contenidos curriculares, además, revisar críticamente los modelos mentales que
han inspirado el desarrollo de los sistemas educativos.
Por lo anterior, la
necesidad de repetir una y otra vez, hasta la saciedad, algunas de las ideas innovadoras
sobre las que se ha logrado un cierto consenso a lo largo de los años, aunque
con muy escasos resultados aún en el sistema educativo, desde la educación
infantil hasta la educación universitaria.
Así, por ejemplo:
la autonomía de los centros educativos, la calidad en la enseñanza de todos los
aspectos, la interdisciplinariedad especialmente en la educación avanzada, la
utilización plena y apropiada de las nuevas tecnologías en el aprendizaje, la
formación profesional después de cada uno de los niveles educativos como
complemento de una sólida educación general que forme para la vida, o la
educación para "aprender a ser, a hacer, a vivir y a convivir", son
todas ellas parte de ese largo etcétera de numerosos intentos renovadores, cargados
de frecuentes frustraciones para cuantos nos hemos dedicado a estos menesteres
en nuestra vida profesional, en particular durante las últimas tres décadas.
De ahí esa cada vez
más extendida inquietud en busca de un nuevo paradigma educativo en vísperas
del siglo. Ese profundo replanteamiento no puede ser acometido por el sistema
educativo en su conjunto ni tampoco por niveles o modalidades no reglamentadas.
La transformación profunda tiene que producirse esta vez de abajo hacia arriba,
desde una reconversión total de cada uno de los centros educativos; desde un
cambio de actitudes y de
planteamientos por
parte de educadores y desde el empeño responsable de cada uno de los dicentes o
alumnos, es decir, de quienes son los verdaderos "clientes" del proceso
de aprendizaje, de acuerdo con el lenguaje y la mentalidad imperantes
inspirados en los principios de la economía libre o social de mercado.
La sociedad del
siglo seguramente reafirmará que aprender es la más importante fuente de
riqueza y bienestar, de capacidad de competir y de cooperar en paz. En
consecuencia, cada institución educativa tiene que empezar por aceptar la
necesidad de transformarse en una organización competitiva para facilitar el
aprendizaje personal y colectivo ante el siglo.
El mayor esfuerzo
debe dedicarse hoy día, por tanto, al diseño de instituciones realmente capaces
y deseosas de evolucionar para adaptar sus medios a las nuevas necesidades
sociales e individuales con vista al futuro, desde la doble exigencia de
establecer unas dimensiones adecuadas o críticas, así como un ámbito
suficientemente polivalente para asegurar una oferta integral. Tales
instituciones, si persiguen con empeño una calidad total, merecen la máxima
autonomía y el mayor apoyo público y privado posible, aunque siempre dentro de
un marco normativo común que asegure la máxima armonía y la mayor eficacia.
Suscribirse a:
Entradas (Atom)