jueves, 29 de noviembre de 2012

 

el basquetbol



Una de las novedades que incluye el baloncesto es el marcador de posesión. Cada equipo solo tiene 24 segundos para atacar, y dado que sería muy complicado que los árbitros estuvieran pendientes de esos segundos, además de las otras facetas del equipo, se construyó un marcador digital colocado en cada canasta del parque.


De esta manera, los jugadores pueden observar cuánto tiempo de posesión les queda para atacar. Además, cuando el reloj de posesión llega a cero, se ilumina de color rojo a la vez que suena para que todos sepan que la posesión ha terminado y el balón tiene que pasar al equipo contrario.


Los monitores de televisión son muy importantes en el baloncesto. Pueden determinar una victoria o una derrota. Cuando los árbitros tienen dudas de si una canasta está o no está dentro del tiempo, disponen de estos monitores para saber con exactitud el momento en el que el balón sale de las manos del lanzador.
Lo que esto evidencia es la dificultad que puede tener un árbitro a la hora de dirigir un partido de baloncesto y las ganas que tienen todos de acabar con polémicas innecesarias.



Los monitores de televisión son algo importante en el baloncesto. Pueden determinar una victoria o una derrota. Cuando los árbitros tienen dudas de si una canasta está o no está dentro del tiempo, disponen de estos monitores para saber con exactitud el momento en el que el balón sale de las manos del lanzador.

Lo que esto evidencia es la dificultad que puede tener un árbitro a la hora de dirigir un partido de baloncesto.




Por segundo día consecutivo, Google se puso creativo y de nuevo ofreció un doodle a modo de videojuego para divertirse.

Después de ponerse a saltar vallas, Google prueba suerte con el basquetbol y pone como reto lograr la mayor cantidad de encestes en un tiempo límite de 24 segundos, el mismo que tienen los atletas para marcar un punto en los partidos profesionales.

En la imagen del día se observa una jugadora en una cancha de basquetbol, detrás de ella, las gradas del campo con las palabras Google sobre las bancas y por encimer_info_ids[822]=1000044287582puntos y el reloj de disparo.

Para poder jugar se necesita la barra espaciadora del teclado que imprime fuerza al lanzamiento. Mientras más balones se encesten, más se aleja la competidora del aro por lo cual aumenta la dificultad al pasar de canastas dobles a triples.

Al finalizar el tiempo, el usuario puede revisar su puntaje y dependiendo de este, se otorgan una, dos o tres medallas, que es la puntuación ideal.

El baloncesto o basquetbol es un deporte de equipo que se disputa en ambas ramas (masculino y femenino) inventado en Estados Unidos en 1891 por James Naismith.




 
 
 

miércoles, 28 de noviembre de 2012

  • tecnologia en el baloncesto:

Una de las novedades que incluye el baloncesto es el marcador de posesión. Cada equipo solo tiene 24 segundos para atacar, y dado que sería muy complicado que los árbitros estuvieran pendientes de esos segundos, además de las otras facetas del equipo, se construyó un marcador digital colocado en cada canasta del parquet.
De esta manera, los jugadores pueden observar cuánto tiempo de posesión les queda para atacar. Además, cuando el reloj de posesión llega a cero, se ilumina de color rojo a la vez que suena para que todos sepan que la posesión ha terminado y el balón tiene que pasar al equipo contrario.

 

Monitores que facilitan el juego limpio

Los monitores de televisión son muy importantes en el baloncesto. Pueden determinar una victoria o una derrota. Cuando los árbitros tienen dudas de si una canasta está o no está dentro del tiempo, disponen de estos monitores para saber con exactitud el momento en el que el balón sale de las manos del lanzador.
Lo que esto evidencia es la dificultad que puede tener un árbitro a la hora de dirigir un partido de baloncesto y las ganas que tienen todos de acabar con polémicas innecesarias.
 

El monitor

Los monitores de televisión son algo importante en el baloncesto. Pueden determinar una victoria o una derrota. Cuando los árbitros tienen dudas de si una canasta está o no está dentro del tiempo, disponen de estos monitores para saber con exactitud el momento en el que el balón sale de las manos del lanzador.
Lo que esto evidencia es la dificultad que puede tener un árbitro a la hora de dirigir un partido de baloncesto.







 

Hardware




    
El término hardware (pronunciación AFI: [ˈhɑːdˌwɛə] ó [ˈhɑɹdˌwɛɚ]) se refiere a todas las partes tangibles de un sistema informático; sus componentes son: eléctricos, electrónicos, electromecánicos y mecánicos.[1] Son cables, gabinetes o cajas, periféricos de todo tipo y cualquier otro elemento físico involucrado; contrariamente, el soporte lógico es intangible y es llamado software. El término es propio del idioma inglés (literalmente traducido: partes duras), su traducción al español no tiene un significado acorde, por tal motivo se la ha adoptado tal cual es y suena; la Real Academia Española lo define como «Conjunto de los componentes que integran la parte material de una computadora».[2] El término, aunque sea lo más común, no solamente se aplica a las computadoras; del mismo modo, también un robot, un teléfono móvil, una cámara fotográfica o un reproductor multimedia poseen hardware (y software).[3] [4]
La historia del hardware de computador se puede clasificar en cuatro generaciones, cada una caracterizada por un cambio tecnológico de importancia. Una primera delimitación podría hacerse entre hardware básico, el estrictamente necesario para el funcionamiento normal del equipo, y complementario, el que realiza funciones específicas.
Un sistema informático se compone de una unidad central de procesamiento (UCP/CPU), encargada de procesar los datos, uno o varios periféricos de entrada, los que permiten el ingreso de la información y uno o varios periféricos de salida, los que posibilitan dar salida (normalmente en forma visual o auditiva) a los datos procesados.
La clasificación evolutiva del hardware del computador electrónico está dividida en generaciones, donde cada una supone un cambio tecnológico muy notable. El origen de las primeras es sencillo de establecer, ya que en ellas el hardware fue sufriendo cambios radicales. [5] Los componentes esenciales que constituyen la electrónica del computador fueron totalmente reemplazados en las primeras tres generaciones, originando cambios que resultaron trascendentales. En las últimas décadas es más difícil distinguir las nuevas generaciones, ya que los cambios han sido graduales y existe cierta continuidad en las tecnologías usadas. En principio, se pueden distinguir:
  • 1ª Generación (1945-1956): electrónica implementada con tubos de vacío. Fueron las primeras máquinas que desplazaron los componentes electromecánicos (relés).
  • 2ª Generación (1957-1963): electrónica desarrollada con transistores. La lógica discreta era muy parecida a la anterior, pero la implementación resultó mucho más pequeña, reduciendo, entre otros factores, el tamaño de un computador en notable escala.
  • 3ª Generación (1964-hoy): electrónica basada en circuitos integrados. Esta tecnología permitió integrar cientos de transistores y otros componentes electrónicos en un único circuito integrado impreso en una pastilla de silicio. Las computadoras redujeron así considerablemente su costo, consumo y tamaño, incrementándose su capacidad, velocidad y fiabilidad, hasta producir máquinas como las que existen en la actualidad.
  • 4ª Generación (futuro): probablemente se originará cuando los circuitos de silicio, integrados a alta escala, sean reemplazados por un nuevo tipo de material o tecnología. [6]
La aparición del microprocesador marca un hito de relevancia, y para muchos autores constituye el inicio de la cuarta generación.[7] A diferencia de los cambios tecnológicos anteriores, su invención no supuso la desaparición radical de los computadores que no lo utilizaban. Así, aunque el microprocesador 4004 fue lanzado al mercado en 1971, todavía a comienzo de los 80's había computadores, como el PDP-11/44,[8] con lógica carente de microprocesador que continuaban exitosamente en el mercado; es decir, en este caso el desplazamiento ha sido muy gradual.
Otro hito tecnológico usado con frecuencia para definir el inicio de la cuarta generación es la aparición de los circuitos integrados VLSI (Very Large Scale Integration), a principios de los ochenta. Al igual que el microprocesador, no supuso el cambio inmediato y la rápida desaparición de los computadores basados en circuitos integrados en más bajas escalas de integración. Muchos equipos implementados con tecnologías VLSI y MSI (Medium Scale Integration) aún coexistían exitosamente hasta bien entrados los 90.

[Clasificación del hardware

Una de las formas de clasificar el hardware es en dos categorías: por un lado, el "básico", que abarca el conjunto de componentes indispensables necesarios para otorgar la funcionalidad mínima a una computadora; y por otro lado, el hardware "complementario", que, como su nombre indica, es el utilizado para realizar funciones específicas (más allá de las básicas), no estrictamente necesarias para el funcionamiento de la computadora.
Así es que: un medio de entrada de datos, la unidad central de procesamiento (C.P.U.), la memoria RAM, un medio de salida de datos y un medio de almacenamiento constituyen el "hardware básico".
Los medios de entrada y salida de datos estrictamente indispensables dependen de la aplicación: desde el punto de vista de un usuario común, se debería disponer, al menos, de un teclado y un monitor para entrada y salida de información, respectivamente; pero ello no implica que no pueda haber una computadora (por ejemplo controlando un proceso) en la que no sea necesario teclado ni monitor; bien puede ingresar información y sacar sus datos procesados, por ejemplo, a través de una placa de adquisición/salida de datos.
Las computadoras son aparatos electrónicos capaces de interpretar y ejecutar instrucciones programadas y almacenadas en su memoria; consisten básicamente en operaciones aritmético-lógicas y de entrada/salida.[9] Se reciben las entradas (datos), se las procesa y almacena (procesamiento), y finalmente se producen las salidas (resultados del procesamiento). Por ende todo sistema informático tiene, al menos, componentes y dispositivos hardware dedicados a alguna de las funciones.

Propósito

Las especialidades del programa de Ingeniero en Tecnología de Software (ITS) son los sistemas integrados (inglés: embedded systems) y el cómputo móvil, no se limita a sistemas de software para computadoras tradicionales, tipo estación de trabajo, sino que desarrolla soluciones de software para plataformas y hardware diversos, enfocándose en dispositivos pequeños que buscan comunicarse con otros dispositivos computacionales en su entorno y ajustarse a su ambiente y modo de operación.
Los egresados de la carrera de Ingeniero en Tecnología de Software son profesionales con una formación amplia y sólida que les prepara para dirigir y realizar las tareas de todas las fases del ciclo de vida del software, aplicaciones y productos que resuelvan problemas de cualquier ámbito de las Industria, aplicando: conocimientos científico, métodos y técnicas propios de la ingeniería de Software en dispositivos móviles y en sistemas inteligentes.

Por su formación, tanto en su base científica y tecnológica, los egresados titulados de Ingeniero en Tecnología de Software se caracterizan por:

* Estar preparados para ejercer la profesión, teniendo una conciencia clara de su dimensión humana, económica, social, legal y ética.
* Estar preparados para asumir tareas de responsabilidad en las organizaciones, tanto de contenido técnico como directivo.
* Tener las capacidades requeridas en la práctica profesional de la ingeniería: ser capaces de desarrollar y dirigir proyectos tecnologicos, de comunicarse de forma clara y efectiva, de trabajar y conducir equipos de trabajo y de autoaprendizaje a lo largo de su vida.
* Estar preparados para aprender y utilizar de forma efectiva técnicas y herramientas que surjan en el futuro. Esta versatilidad les hace especialmente valiosos en organizaciones en las que sea necesaria una innovación permanente.
* Ser capaces de especificar, diseñar, construir, implementar, verificar, auditar, evaluar y mantener sistemas de software que respondan a las necesidades de sus usuarios.

Enfoque

Formar profesionistas con habilidad de plantear hipótesis y generar alternativas de modelos en lenguaje matemático que representan un sistema, fenómeno o proceso de acuerdo a la hipótesis y que tiene solución por métodos analíticos o computacionales; seleccionar una metodología para resolver el problema de ingeniería de tal forma que permita que la solución tecnológica sea pertinente y viable cumpliendo con estándares de calidad y políticas de seguridad, formación sólida en las aéreas de Física y Matemáticas y con una preparación amplia que le permite desarrollar sistemas de software integrado, de sistemas de dispositivos móviles e inteligentes de calidad generando soluciones innovadoras en aplicaciones de las tecnologías de la información y de software en sus diversos entornos utilizando la ingeniería y ciencia computacional.

Aptitudes

Dominio de una lengua extranjera, Capacidad de análisis y síntesis aplicada a la solución de problemas de ingeniería de Software, Capacidad de asimilar y desarrollar nueva tecnología en el área de software, Capacidad para trabajar en un entorno globalizado y en ambientes e interdisciplinarios, Autónomo, crítico con sensibilidad y compromiso ético-social frente a problemas del entorno, Comprometido con el medio ambiente y su entorno.

Campo Laboral

Debido a la especialidad de esta carrera el egresado es capaz de desenvolverse satisfactoriamente en diferentes áreas y compañías donde se requiera el manejo de metodologías de desarrollo de software, diseño y modelado de plataformas, sistemas integrados y de cómputo móvil, crear soluciones innovadoras de cómputo integrado para satisfacer las necesidades de los numerosos campos de aplicación de las tecnologías de información. El ITS está capacitado para dirigir, coordinar y llevar a cabo proyectos de desarrollo y mantenimiento de aplicaciones integradas y sistemas inteligentes, así como dominar todas las etapas de vida de un proyecto (análisis y concepción, análisis técnico, programación, pruebas, documentación y formación de usuarios).

Importancia Social

La popularidad creciente de dispositivos tipo teléfono inteligente y productos como el Kindle de Amazon y los iPod Touch y las iPad de Apple junto con la llegada de más y más computadoras al hogar, a los vehículos y a la automatización industrial asegura que habrá demanda para ingenieros con estas habilidades.

Superación Profesional

La UANL y otras instituciones educativas brindan la oportunidad de realizar estudios en áreas de investigación como son los dispositivos móviles, redes informáticas, procesamiento de señales, sistemas inteligentes.

Requisitos Específicos

La Universidad Autónoma de Nuevo León tiene un procedimiento para el ingreso y reingreso de estudiantes en su Reglamento Genera, dicha normativa esta en los lineamientos de la misma, a los cuales se suscribe la FIME:

Inscripción en la FIME.

* Para ser matriculado en la FIME , el aspirante deberá:
o Contar con el Certificado de Educación Media Superior (Kardex Completo).
o Obtener el puntaje mínimo solicitado por la Facultad.
o Cumplir con los requisitos que fije la Facultad.
o En caso de ser alumno ajeno a la UANL , deberá contar con el certificado de Educación Media Superior al momento de solicitar su inscripción definitiva.






Software

Se conoce como software[1] al equipamiento lógico o soporte lógico de un sistema informático, comprende el conjunto de los componentes lógicos necesarios que hacen posible la realización de tareas específicas, en contraposición a los componentes físicos, que son llamados hardware.

Los componentes lógicos incluyen, entre muchos otros, las aplicaciones informáticas; tales como el procesador de texto, que permite al usuario realizar todas las tareas concernientes a la edición de textos; el software de sistema, tal como el sistema operativo, que, básicamente, permite al resto de los programas funcionar adecuadamente, facilitando también la interacción entre los componentes físicos y el resto de las aplicaciones, y proporcionando una interfaz con el usuario.
El anglicismo "software" es el más ampliamente difundido, especialmente en la jerga técnica, el término sinónimo "logical", derivado del término francés "logiciel", es utilizado en países y zonas de habla francesa.











  1. ¿QUÉ ES EL SOFTWARE DE SISTEMAS?
Software son las instrucciones electrónicas que van a indicar a la PC que es lo que tiene que hacer. También se puede decir que son los programas usados para dirigir las funciones de un sistema de computación o un hardware.
El software es el conjunto de instrucciones que las computadoras emplean para manipular datos. Sin el software, la computadora sería un conjunto de medios sin utilizar. Al cargar los programas en una computadora, la máquina actuará como si recibier a una educación instantánea; de pronto "sabe" cómo pensar y cómo operar. El Software es un conjunto de programas, documentos, procedimientos, y rutinas asociados con la operación de un sistema de computo. Distinguiéndose de los componentes físicos llamados hardware. Comúnmente a los programas de computación se les llama software; el software asegura que elprograma o sistema cumpla por completo con sus objetivos, opera con eficiencia, esta adecuadamente documentado, y suficientemente sencillo de operar. Es simp lemente el conjunto de instrucciones individuales que se le proporciona al microprocesador para que pueda procesar los datos y generar los resultados esperados. El hardware por si solo no puede hacer nada, pues es necesario que exista el software, que es el conjunto de instrucciones que hacen funcionar al hardware(2).

Por que estudiarlo
El software para uso general ofrece la estructura para un gran número de aplicaciones empresariales, científicas y personales. El software de hoja de cálculo, de diseño asistido por computadoras (CAD), de procesamiento de texto, de manejo de Bases de Datos, pertenece a esta categoría. La mayoría de software para uso general se vende como paquete; es decir, con software y documentación orientada al usuario ( manuales de referencia, plantillas de teclado y demás )(1).
(1 Dir. http://www.salonhogar.com/ciencias/tecnologias/computadoras/softwaredeusogeneral.htm)
Diferencias con el software de aplicación
El software de aplicación esta diseñado y escrito para realizar tareas específicas personales,,empresariales o científicas como el procesamiento de nóminas, la administración de los recursos humanos o el control de inventarios. Todas éstas aplicacion es procesan datos (recepción de materiales) y generan información (registros de nómina). para el usuario. Sistemas Operativos Un sistema Operativo (SO) es en sí mismo un programa de computadora. Sin embargo, es un programa muy especial, quizá el más complejo e importante en una computadora. El SO despierta a la computadora y hace que reconozca a la CPU, la memoria, el tecla do, el sistema de vídeo y las unidades de disco. Además, proporciona la facilidad para que los usuarios se comuniquen con la computadora y sirve de plataforma a partir de la cual se corran programas de aplicación. Cuando enciendes una computadora, lo primero que ésta hace es llevar a cabo un autodiagnóstico llamado autoprueba de encendido (Power On Self Test, POST). Durante la POST, la computadora indentifica su memoria, sus discos, su teclado, su sistema de vídeo y cualquier otro dispositivo conectado a ella. Lo siguiente que la computadora hace es buscar un SO para arrancar (boot).
Una vez que la computadora ha puesto en marcha su SO, mantiene al menos parte de éste en su memoria en todo momento. Mientras la computadora esté encendida, el SO tiene 4 tareas principales.
1.Proporcionar ya sea una interfaz de línea de comando o una interfaz gráfica al usuario, para que este último se pueda comunicar con la computadora. Interfaz de línea de comando: tú introduces palabras y símbolos desde el teclado de la computadora, ejemplo, el MS-DOS.Interfaz gráfica del Usuario (GUI), seleccionas las acciones mediante el uso de un Mouse para pulsar sobre figuras llamadas iconos o seleccionar opciones de los menús.
2.Administrar los dispositivos de hardware en la computadora. Cuando corren los programas, necesitan utilizar la memoria, el monitor, las unidades de disco, los puertos de Entrada/Salida (impresoras, módems, etc). El SO sirve de intermediario entre los programas y el hardware.
3.Administrar y mantener los sistemas de archivo de disco. Los SO agrupan la información dentro de compartimientos lógicos para almacenarlos en el disco. Estos grupos de información son llamados archivos. Los archivos pueden contener instrucciones de programas o información creada por el usuario. El SO mantiene una lista de los archivos en un disco, y nos proporciona las herramientas necesarias para organizar y manipular estos archivos.
4.Apoyar a otros programas. Otra de las funciones importantes del SO es proporcionar servicios a otros programas. Estos servicios son similares a aquellos que el SO proporciona directamente a los usuarios. Por ejemplo, listar los archivos, grabarlos a disco, eliminar archivos, revisar espacio disponible, etc. Cuando los programadores escriben programas de computadora, incluyen en sus programas instrucciones que solicitan los servicios del SO. Estas instrucciones son conocidas como "llamadas del sistema"














 

jueves, 22 de noviembre de 2012

La Tecnología Informática (IT), según lo definido por la asociación de la Tecnología Informática de América (ITAA), es “el estudio, diseño, desarrollo, innovación puesta en práctica, ayuda o gerencia de los sistemas informáticos computarizados, particularmente usos del software y hardware.” En general, se ocupa del uso de computadoras y del software electrónico de convertir, de almacenar, de proteger, de procesar, de transmitir y de recuperar la información.

 

La Tecnología Informática hoy

Hoy, el término tecnología informática se ha ampliado para abarcar muchos aspectos referidos a la computadora y la tecnología informática. El paraguas de la tecnología informática puede ser grande, cubriendo muchos campos. Los profesionales realizan una variedad de deberes que se extiendan de instalar usos a diseñar redes de ordenadores y bases de datos complejas. Algunos de los deberes que los profesionales, Ingenieros e Ingenieros Técnicos en Informática, realizan pueden incluir:
  • Gerencia de datos
  • Establecimiento de redes informáticas
  • Diseño de los sistemas de la base de datos
  • Diseño del software
  • Sistemas de información de gerencia
  • Gerencia de sistemas
Una lista más extensa de asuntos relacionados se proporciona abajo. y desarrollar aun mas el mundo de la tecnología

 Organizaciones de la industria

La tecnología de la informática del mundo y la alianza de los servicios (WITSA) es un consorcio sobre 60 asociaciones de la industria de la tecnología informática (IT) de economías alrededor del mundo. Fundado adentro 1978 y conocido originalmente como la asociación de la industria de servicios del mundo que computaba, WITSA ha asumido cada vez más un papel activo de la defensa en las ediciones internacionales del orden público que afectaban la creación de una infraestructura de datos global robusta.
La asociación de la tecnología informática de América (ITAA) es un grupo comercial de la industria para varias compañías de la tecnología informática de los EE.UU.
Fundado en 1961 como la asociación de las organizaciones de servicios de proceso de datos (ADAPSO), la asociación de la tecnología informática de América (ITAA) proporciona el orden público global, el establecimiento de una red del negocio, y la dirección nacional para promover el crecimiento rápido continuado del IT industrial. ITAA consiste en                                                                                                 nn        nnnnnnnnnnn                                                                                                                                                                                                                                  aproximadamente 325 miembros corporativos a través de los EE.UU., y es secretaría de la tecnología informática del mundo y mantiene la alianza (WITSA), una red global d   e IT de los 67 países asociados.
 
 

Tecnología de la informática accesible en la educación y temas relacionados

Translations of September 2003 documents were performed by the Great Lakes ADA & Accessible IT Center in collaboration with the Northeast ADA & IT Center under NIDRR grant #H133D10205.
La tecnología se ha convertido en parte integral de la mayoría de entidades educativas, pero aun así muchas personas todavía encuentran confusa la terminología sobre el tema. Las siguientes definiciones tratarán de aclarar parte de la confusión, explicando los términos más comunes en la forma simple y sin el uso de un lenguaje técnico. Esperamos que este documento sea fácil de entender para cualquier persona que trabaje con tecnología en el campo educativo, incluyendo profesores, personal de tecnología de informática, lideres políticos, directores de programas de informática en escuelas, personal de enseñanza a distancia y diseñadores de páginas electrónicas. Este documento no ofrece definiciones legales completas, pero incluye al final las fuentes donde usted puede obtener más información.

¿Qué es la tecnología de informática?

La tecnología de informática (TI) incluye los productos que almacenan, procesan, transmiten, convierten, copian o reciben información electrónica. En la legislación federal el término tecnología electrónica y de informática (E&IT) es el que normalmente se utiliza. Ejemplos de IT pueden ser: programas para aplicaciones especificas, sistemas operacionales, sistemas de informática y aplicaciones basadas en la red, teléfonos y otros medios de telecomunicación, aparatos de video, productos de multi-media, y equipos de oficina. Los textos electrónicos, programas de instrucción, correo electrónico, programas para intercambiar conversaciones en línea y programas de enseñanza a distancia son también considerados ejemplos de tecnología de informática.

¿Qué es la tecnología de asistencia?

La tecnología de asistencia se refiere a los productos utilizados por personas con discapacidades para lograr acceso al medio ambiente y actividades que de otra forma serian difíciles o imposibles de utilizar. Permite que las personas puedan llevar a cabo las tareas cotidianas de la vida regular, como vestirse o comer, facilitar la comunicación y les ofrece mayor acceso a la educación, al empleo y a la diversión. Ejemplos de la tecnología de asistencia son: las sillas de ruedas, controles manuales para manejar vehículos y los aparatos de ayuda para limitaciones del habla o del oído.
Los productos de asistencia específicamente relacionados con TI accesible (conocidos como tecnología adaptada) son aquellos que le permiten a personas con discapacidades operar computadoras, programas, el Internet, teléfonos y otra tipo de tecnología de informática. Si una persona tiene uso limitado de las manos y quiere manejar una computadora, puede utilizar un teclado con teclas más grandes, o un ratón (mouse) especial; las personas ciegas o con dificultades para leer pueden utilizar programas que anuncian en voz alta el texto en la pantalla; las personas con limitación de la vista pueden utilizar programas de magnificación de pantalla. Las personas con dificultades auditivas o sordas pueden utilizar los sistemas telefónicos TTY/ o teléfono de texto para comunicarse por teléfono; personas con limitaciones del habla pueden utilizar un aparato que anuncia en voz alta el texto lo que la persona escribe usando un teclado.

¿Que es el diseño universal?

Para aplicar un diseño universal significa desarrollar productos que toda persona pueda utilizar al máximo posible sin necesidad de ser adaptado o de tener un diseño especial. Estos productos ayudan a una gran variedad de personas con diferentes preferencias y habilidades individuales; comunicar adecuadamente la información (sin tener en cuenta las condiciones ambientales o las habilidades sensoriales de los usuarios) y estos productos pueden ser encontrados, obtenidos, manipulados y utilizados sin tener en cuenta el tamaño físico, la condición física, o la capacidad de desplazamiento de la persona. Al aplicarse los principios del diseño universal, se reduce la necesidad de la tecnología de asistencia, que resulta en un producto compatible con esta tecnología creando un producto que funciona mejor para todos y no sólo para las personas discapacitadas.

¿Qué puede hacer que la tecnología de informática no sea accesible a las personas con discapacidades?

La TI puede considerarse no accesible a las personas con discapacidades si solo le ofrece al usuario una única forma de acceso, para manipular la información, sobre todo si la habilidad de utilizar esta tecnología depende primordialmente del uso de la vista o el oído. Por ejemplo, las personas con limitaciones de la vista no pueden leer instrucciones presentadas solamente en un formato visual; las personas sordas no pueden entender el contenido presentado únicamente en forma oral; las personas que no ven colores no pueden diferenciar entre opciones mostradas en diferentes colores; las personas con uso limitado de las manos no pueden utilizar el ratón (mouse) en la computadora; y las personas que se movilizan por medio de la silla de ruedas no pueden utilizar una maquina de fax que tiene los controles en un sitio imposible de alcanzar, mientras esta persona permanece sentada. Las páginas electrónicas con diseños sin concordancia, que usan gráficos difíciles de reconocer y utilizan un lenguaje no accesible, son difíciles de usar para todos, sobre todo las personas con limitaciones cognoscitivas y las que tienen dificultad para leer. Muchas de estas barreras pueden ser reducidas o eliminadas cuando la tecnología se desarrolla usando un diseño universal.

¿Que es la tecnología de informática accesible?

La TI (Tecnología de Informática) accesible es compatible con la tecnología de asistencia, e incluye ciertas características flexibles que permiten a las personas con discapacidades utilizar la tecnología de asistencia. Características relacionadas con la accesibilidad pueden ser incluidas desde un principio, como en el caso de una respuesta auditiva en los quioscos informativos o ser una opción de alto contraste en los programas operacionales de computadoras. También se puede hacer una orden especial, como por ejemplo haciendo uso de subtítulos o de descripciones orales en el video. En principio, el término accesibilidad implica que las personas puedan interactuar con la tecnología de la mejor forma posible de acuerdo a cada caso. En la práctica, la determinación de lo que puede o no ser realmente accesible se considera un tema técnico complejo. Los niveles de calidad de la Sección 508, desarrollados por el Comité sobre el acceso determinan los niveles mínimos de calidad con relación a la accesibilidad. Para mayor información usted se puede dirigir a la página en la Internet: www.section508.gov

Ejemplos sobre la Tecnología de Informática (TI) accesible en la educación

Aplicaciones accesibles a programas pueden pcional que tas características diseñadas o presentado en la pantalla, se permite la participación completa e independiente de los estudiantes con limitaciones cognoscitivas y con problemas para leer. Se pueden ofrecer audífonos para evitar que esto distraiga a los otros compañeros.

Videos accesibles

Los videos accesibles ofrecen subtítulos sincronizados para toda información verbal, así como todo contenido presentado en el formato de audio. También se ofrecen las descripciones verbales sincronizadas para explicar el contenido visual.

Páginas electrónicas accesibles

Las páginas electrónicas accesibles han sido diseñadas para garantizar que toda persona que la visite pueda movilizarse dentro de ella, tenga acceso a su contenido, y participe en actividades interactivas de la red. Las páginas electrónicas accesibles ofrecen un texto equivalente (generalmente una descripción) para todos los elementos que no son de texto, como de audio, video, gráficos, animación, botones gráficos, y mapas de imágenes. Además ofrecen un sistema de navegación claro y sin contradicciones y siguen de cercaniños con limitaciones visuales y los que tienen uso limitado de las manos los puedan usar.
Piense en un estudiante tomando un examen usando una computadora. Las instrucciones y preguntas aparecen en forma de texto en la pantalla. Al incluirse una función opcional que permite leer en voz alta el texto presentado en la pantalla, se permite la participación completa e independiente de los estudiantes con limitaciones cognoscitivas y con problemas para leer. Se pueden ofrecer audífonos para evitar que esto distraiga a los otros compañeros.

Videos accesibles

Los videos accesibles ofrecen subtítulos sincronizados para toda información verbal, así como todo contenido presentado en el formato de audio. También se ofrecen las descripciones verbales sincronizadas para explicar el contenido visual.

Páginas electrónicas accesibles

Las páginas electrónicas accesibles han sido diseñadas para garantizar que toda persona que la visite pueda movilizarse dentro de ella, tenga acceso a su contenido, y participe en actividades interactivas de la red. Las páginas electrónicas accesibles ofrecen un texto equivalente (generalmente una descripción) para todos los elementos que no son de texto, como de audio, video, gráficos, animación, botones gráficos, y mapas de imágenes. Además ofrecen un sistema de navegación claro y sin contradicciones y siguen de cerca las normas más importantes de la accesibilidad en términos de su contenido, como las directrices publicadas bajo la iniciativa para la accesibilidad en la red del World Wide Web Consortium (WAI) o de la Sección 508. Las páginas electrónicas diseñadas de esta manera permiten que las personas que no pueden leer la pantalla puedan tener acceso a la información, usando la tecnología de asistencia por ejemplo un lector de pantalla. Recuerde que aunque un lector electrónico de pantalla puede leer la descripción de una foto, el lector de pantalla mas sofisticado no puede ofrecer una descripción a menos que esta haya sido previamente programada.

Máquinas foto-copiadoras accesibles

Una máquina foto-copiadora accesible puede ser operada de más de una forma por medio de teclas, pantallas táctiles, o un sistema de reconocimiento de voz. La altura y posición también puede ser ajustadas para garantizar que se puedan alcanzar los controles y que se puedan ver las pantallas con facilidad. Las ranuras para introducir los documentos deben estar situadas al mismo nivel del escritorio para que las puedan alcanzar fácilmente las personas en sillas de ruedas.

Trabajando hacia la creación de ambientes accesibles

Los mismos principios sobre la creación de los ambientes físicos accesibles se usan en la creación de los ambientes accesibles de la TI. En la misma forma que los edificios con rampas y elevadores se consideran más accesibles para personas que usan sillas de ruedas, la Tecnología Informática que obedece los requisitos del diseño accesible es más útil para personas con gran variedad de habilidades y discapacidades. En pocas palabras, la TI crea medios ambientes educativos virtuales accesibles. De la misma forma que todos los elementos físicos de un edificio escolar deben ser accesibles (baños, bibliotecas, cafetería), todas las especificaciones de la escuela virtual también deben ser accesibles (página electrónica, enciclopedia en CD-ROM, intercambios de opiniones en línea, y evaluaciones.)
La creación de sistemas de informática accesibles utilizados en establecimientos y programas requieren una planeación previa. Por ejemplo, al preparar un programa de enseñanza a distancia, los diseñadores no pueden anticipar con certeza las posibles discapacidades de los futuros estudiantes. Al aplicar los principios del diseño universal, pueden asegurarse que toda persona, incluyendo los discapacitados, puedan también utilizar los sistemas. Los productos de multimedia necesitan usar subtítulos y descripciones verbales; los recursos de las páginas electrónicas deben ser diseñados tomando en cuenta la accesibilidad, para garantizar que las personas que utilizan diferentes formas de tecnología de asistencia también puedan utilizarlas; la comunicación en el salón de clase debe llevarse a cabo a través de una tecnología accesible para todos y se deben establecer planes para ofrecer acomodaciones especificas de acuerdo con la discapacidad de la persona, si éstas son requeridas. Ofrecer un curso de enseñanza a distancia que no sea accesible seria igual que ofrecer una clase en un edificio sin rampas o elevadores. Aun cuando un estudiante utilice una silla de ruedas para movilizarse, él o ella no va a poder llegar a la clase. Aunque se pueden hacer modificaciones a estructuras ya existentes en ambientes físicos o electrónicos, ésto puede ser bastante costoso, no siempre es una solución aceptable y puede tomar demasiado tiempo.
Los ambientes de TI accesibles también tienen sentido en términos financieros. Algunos beneficios de los ambientes de la TI accesible permiten que toda persona en la comunidad pueda participar en una actividad escolar, reduce la necesidad (y por lo tanto el costo total) de las acomodaciones especiales y reducen o eliminan el riesgo de quejas y posibles juicios legales costosos. Las organizaciones que valoran y promueven el desarrollo de ambientes accesibles en la TI crean sistemas que son más accesibles y que todos pueden utilizar.




 
 
“TECNOLOGÍA QUÍMICA”
OBJETIVO GENERAL: El alumno comprenderá y aplicará las técnicas y procesos de la tecnología tanto de la química inorgánica como la orgánica para la obtención de diversos compuestos de importancia industrial que le permitirá su inserción en el mercado ocupacional, en las industrias de alimentos, productos farmacéuticos, contaminación ambiental, metalurgia, petroquímica, etc.
“UBICACIÓN DE LA MATERIA TECNOLÓGICA QUÍMICA EN EL ÁMBITO INDUSTRIAL”
INTRODUCCIÓN A LA TECNOLÓGIA QUÍMICA: La tecnología química es la disciplina que se encarga del estudio de los problemas relacionados con los procesos en las industrias de alimentos, productos farmacéuticos, cosméticos, productos químicos, pinturas, minería, pigmentos, petroquímica, etc.
En la actualidad el desarrollo de la tecnología química a alcanzado su mas elevado nivel, y se a enfocado la atención al descubrimiento de las leyes generales de control de las reacciones estequiométricas en la producción industrial. En este sentido se a logrado un notable progreso, pero aún quedan muchas cosas por descubrir y demasiada investigación por continuar. El elevado ritmo de desarrollo de la industria química en la actualidad se explica por el hecho de que la resolución de los nuevos problemas tecnológicos se apoyan cada vez más en las leyes generales de la tecnología química.
México cuenta con una gran variedad de recursos naturales renovables y no renovables, y para su explotación requiere de la tecnología extranjera, que en cierta medida reduce sus beneficios, por lo que para un mejor aprovechamiento se deben buscar o adecuar mejores tecnologías nacionales, las cuales deben estar acordes con nuestras necesidades y ser generadas por la investigación científica por mexicanos para lograr un mejor desarrollo del país y con un pensamiento filosófico.


Química
Fundada en 1980, la revista científica de Tecnología Química es una publicación cuatrimestral del Ministerio de Educación Superior, arbitrada y editada por la Facultad de Ingeniería Química de la Universidad de Oriente. Permite el acceso abierto a todo su contenido. Está inscrita en el Registro Nacional de Publicaciones Seriadas con RNPS 2118 e ISSN: 2224-6185. Dirigida a profesores, investigadores y demás profesionales interesados en la temática, permite el intercambio de conocimientos y experiencias a través de su contenido.

Temáticas:Se publican trabajos teóricos y de resultados prácticos inéditos sobre temas de Ingeniería Química e Ingeniería de Alimentos, relacionados con el estudio de tecnologías, procesos y aparatos de las industrias química y alimentaria. También se aceptan temas que traten de la enseñanza de la Ingeniería Química, informática aplicada a la Ingeniería Química, proyectos mecánicos de equipos químicos y biotecnológicos, ingeniería de los materiales, economía de la industria química, controles de procesos químicos y otros temas considerados como interesantes, útiles y convenientes de acuerdo con la experiencia
Misión:Proporcionar la publicación y divulgación de los trabajos de investigación y de proyectos, las experiencias docentes, científicas y técnicas de la ingeniería química en el país y en el extranjero, permitiendo la creación de una comunidad académica
Objetivo:Divulgar la producción científica, las experiencias docentes y los trabajos de proyectos de profesores, investigadores y otros profesionales en temas relacionados con el desarrollo de la ingeniería química


























































Han pasando alrededor de 2,500 años desde que se fundó la primera Escuela de Medicina Occidental. Muchos han sido los médicos e investigadores que han ido desde la anestesia a la vacuna, pasando por el endoscopio y los antibióticos. Numerosos han sido los inventos y descubrimientos que se han producido en el último siglo y medio y que han permitido sentar las bases de la actual ciencia médica.

Estos avances para muchos han pasado inadvertidos debido al ritmo tan acelerado que le ha dado la tecnología. Hace sólo unos ciento cincuenta años parecía casi un sueño realizar una operación quirúrgica sin que el paciente sufriera. Hoy en día estas intervenciones resultan menos traumáticas y los periodos postoperatorios se han reducido notablemente gracias a la presencia de la tecnología en el ejercicio de la medicina.

Se han aplicado cada vez más y más tecnologías para lograr las condiciones óptimas para cualquier intervención quirúrgica. Finalmente, se llegó a utilizar los avances no sólo para curar sino también para prevenir las enfermedades; y posteriormente para todo tipo de investigación médica, la cual gracias a la tecnología ha realizado importantes descubrimientos. Los expertos se han ocupado de la incorporación de los avances tecnológicos en la práctica de la medicina, por lo que se prevé un cambio radical de la ciencia médica en el futuro.

LA APLICACIÓN DE LOS MICROPROCESADORES A LA MEDICINA
El microprocesador, o micro, es un circuito electrónico que actúa como unidad central de proceso de un ordenador, proporcionando el control de las operaciones de cálculo. Los microprocesadores también se utilizan en otros sistemas informáticos avanzados, como impresoras, automóviles y aviones; y para dispositivos médicos, etc. El microprocesador es un tipo de circuito sumamente integrado. Los circuitos integrados (chips) son circuitos electrónicos complejos integrados por componentes extremadamente pequeños formados en una única pieza plana de poco espesor de un material semiconductor.
Los siguientes son ejemplos de como éstos han sido aplicados en la medicina:
  • El "microprocesador de genes": realiza pruebas para saber cómo reaccionan las personas a los fármacos. Incluye el perfil genético de una persona para determinar cómo reaccionará y si se beneficiará o no de un determinado tratamiento farmacológico. Un microprocesador de genes es una especie de placa de vidrio del tamaño de la uña del dedo pulgar que contiene secuencias de ADN que se pueden usar para revisar miles de fragmentos individuales de ADN de ciertos genes. El uso de los chips para la mejor aplicación de fármacos podría mejorar su valor terapéutico y reducir los costos de atención de la salud. Se calcula que 25 millones de personas en todo el mundo se beneficiarán de la prueba previa al tratamiento farmacológico, en un futuro cercano.
  • Un microprocesador implantado bajo la retina permite a los ciegos percibir de nuevo la luz y distinguir formas. El implante está constituido por un microprocesador del tamaño de la cabeza de una aguja que comprende 3.500 fotopilas que convierten la luz en señales eléctricas enviadas al cerebro por el nervio óptico. Sin embargo, la duración y fiabilidad a largo plazo del método llamado 'Artificial Silicon Retina' todavía se desconoce.
Según Papadopoulus, director del Sun (laboratorio de tecnología), la actual generación de procesadores será sustituida por computadoras basadas en un chip único; en vez de un microprocesador, un microsistema que contará con tres conexiones (para la memoria, para la red y para otros microsistemas). Con el paso del tiempo, cada chip no sólo podrá contener un sistema individual, sino varios sistemas que podrán funcionar de manera independiente, en una “microrred”.
OTRAS IMPLEMENTACIONES DE LA TECNOLOGÍA EN LA MEDICINA



Respirador Artificial:

Defibrilador:

Clonación genética:
CONCLUSIONES
Es evidente que la medicina ha sufrido una gran mejoría en el último siglo gracias a la implementación y modernización de la tecnología, ya sea maquinaria pesada, tales como un respirador artificial; o refinada, como los chips y la endoscopia. Esta modernización ha posibilitado que hoy en día se puedan realizar todo tipo de intervenciones quirúrgicas con el menor grado de invasión y molestia de parte del paciente; así como también las ha facilitado, reduciendo los riesgos.

No cabe duda de que la calidad de vida ha progresado mucho a causa de la tecnología médica, no solo desde el punto de vista físico (el nivel de mortalidad, y mortalidad infantil ha diminuido marcadamente), sino también desde la manera de pensar del ser humano, puesto que muchos descubrimientos han dado explicación a dudas existenciales y enigmas tales como: ¿de dónde vienen las diferencias entre los seres y las similitudes entre familiares?

Ha dado fin a numerosas enfermedades fatales, ha llevado esperanza a millones de personas en todo el mundo con necesidades urgentes, como el transplante de un órgano. Personas que hace cincuenta años no tenían arma alguna contra enfermedades como el cáncer de mama, ahora pueden combatirlo abiertamente y poseen grandes probabilidades de triunfar. Posiblemente, en un futuro no tan lejano, la tecnología permita el descubrimiento de nuevos tratamientos contra enfermedades que en la actualidad son prácticamente incombatibles.

Claro que también se pone en duda ciertos métodos médicos como el aborto, que aunque implementados antes, ahora se practica con mucha más frecuencia por el desarrollo tecnológico que lo ha convertido en una alternativa sin riesgo (para la madre). A tal punto es esto verdad, que en ciertos países se utiliza como método anticonceptivo. En España, más del cincuenta por ciento de las mujeres se somete a por lo menos dos abortos a lo largo de su vida fértil.

La clonación, sistema no legalizado en los seres humanos, sigue teniendo la mayoría de la población en contra, no sólo por su gran poder polémico, sino también por el gran peso económico que conlleva.

La eutanasia es legal. ¿Es moral? Sigue siendo una pregunta sin respuesta. Es evidente que gracias a la tecnología se ha podido mantener con vida a miles de personas que podrían haber muerto hace mucho tiempo. La pregunta es: si alguien tiene el poder de conseguir que una persona viva, en contra de las leyes naturales, ¿se puede considerar que tiene el poder para decidir que muera? La tecnología dice: sí. La gente…en tela de juicio.

Siete tecnologías que podrían revolucionar la medicina del futuro

Ciencia y tecnología se dan la mano en el futuro de la medicina 
MADRID.- Hace pocos días la revista 'Forbes', conocida por sus rankings de las personas más ricas del mundo, publicaba un artículo en el que se hacía eco de siete innovaciones tecnológicas dispuestas a revolucionar la sanidad del futuro.
  1. La información clínica en el bolsillo
  2. 'Patient Keeper', desarrollado por dos profesores del Instituto de Tecnología de Massachusetts (MIT), es uno de estos prometedores proyectos. Es un programa informático que pretende facilitar el acceso de los médicos a toda la información clínica.
    Desde el portátil o la PDA, estos profesionales pueden, entre otros, consultar las citas planificadas para el día, pedir distintas pruebas, recetar medicamentos o controlar la evolución de los pacientes. Actualmente, unos 200 hospitales de EEUU ya lo utilizan.

  3. Intercambiar información entre hospitales
  4. La empresa HX Technologies es la segunda en aparecer en el artículo de la citada publicación económica. Su producto está destinado a acelerar el intercambio de información entre hospitales. Y, de esta forma, facilitar el envío de imágenes de alta resolución (como las obtenidas en un TAC) utilizando el ciberespacio como único soporte.
    Según presumen los miembros de esta empresa, "se podrían eliminar pruebas extra innecesarias y evitar al sistema médico de EEUU entre 5.000 y 6.000 millones de dólares anuales" (entre 3.400 y 4.100 millones de euros).

  5. Tecnología desechable
  6. El concepto propuesto por Xcellerex también podría revolucionar la práctica médica. Se trata de una alternativa para desarrollar y comercializar nuevas vacunas y bioterapias.
    Tal y como explican en su página web, a partir de una "plataforma tecnológica desechable" y una serie de productos de un sólo uso, se pueden obtener resultados "sin competencia" dispuestos a revolucionar el campo de las biomoléculas.
    Entre otros beneficios, estos artilugios de 'usar y tirar' evitan el costoso proceso de limpieza al que tienen que someterse las herramientas reutilizables y, por tanto, acelera el proceso de investigación.
  7. Un concurso de investigación
  8. Quizás una de las ideas más 'rompedoras' sea la de Innocentive, que ofrece la posibilidad de participar en un concurso de investigación.
    En su sitio web se exponen una serie de retos científicos, agrupados en distintas disciplinas, y quién logre solucionarlos opta a un premio valorado en un millón de dólares. "Tu solución de hoy podría contribuir a los grandes avances del mañana", sostiene la compañía.

  9. Órganos artificiales
  10. Tengion, por su parte, está centrada en fabricar órganos a partir de células extraidas de los seres humanos susceptibles de recibir un trasplante. "La razón por la que nos levantamos todas las mañanas es que cada 30 segundos se produce una muerte por fallo orgánico", declara Steven Nichtberger, presidente de la compañía.
    El primer órgano que han sido capaces de reproducir ha sido la vejiga, siempre partiendo del tejido de los propios pacientes. "La exitosa implantación de vejigas artificiales en siete niños, a los que se les realizó un seguimiento de dos a cinco años apareció publicada en la revista 'The Lancet' en 2006", presume Nichtberger.
    Pero éste sólo es el primer paso dado por Tengion. Tal y como apunta Forbes, los investigadores trabajan día a día para poder fabricar otros órganos: riñones, corazones, hígados e incluso nervios y vasos sanguíneos.

  11. Robots auxiliares
  12. Los robots diseñados por Aethon también están destinados a ocupar un lugar en la medicina del futuro. Sus creadores recalcan su valor a la hora de liberar de trabajo rutinario a los trabajadores de los hospitales: pueden recoger las bandejas de comida, ir al almacén a por vendas o repartir los medicamentos por las distintas habitaciones.

  13. Secuenciar el genoma en tres horas
  14. Pacific Biosciences es la responsable de la séptima tecnología, que ofrece "un nuevo paradigma para el análisis completo del genoma". Se trata de una máquina que identifica las cadenas de ADN y las secuencia a gran velocidad, lo que "acelera la carrera por conseguir poderosas curas". La empresa pretende reducir a tres horas los tres años que se tarda actualmente en desentrañar el genoma de un ser humano.
     

Tecnología y medicina

Las razones por las cuales el conocimiento médico se ha expandido con celeridad son múltiples. Sobresale una: de todos los científicos con que ha contado la humanidad en su historia más de la mitad están vivos y ejercen actualmente. La reproducción de la sabiduría médica no sólo es geométrica; es más precisa y más fina. Estoy seguro de que si algún científico de mediados del siglo pasado se asomara a lo que sucede en la actualidad, tanto en los laboratorios médicos como en los de biotecnología, su admiración y sorpresa no serían menores que la que experimentó Phileas Fogg, el personaje de Julio Verne, durante La vuelta al mundo en ochenta días. Aunque las figuras de Verne también enfrentan dilemas éticos, los que plantea la tecnología médica son más complejos por ser más veraces que las preguntas de la ciencia ficción.
No sobra repetir que el conocimiento y la tecnología en medicina no son ni buenos ni malos. Puede ser “mala” la forma en que se obtienen o inadecuadas las vías por medio de las cuales se ejercen. Los juicios morales sólo se aplican a los seres humanos; son los usos de la tecnología los que están sujetos a la polaridad axiológica de bueno o malo. La cuestión central es clara: debe existir un balance entre tecnología y ética.
Los eticistas contemporáneos bregan por encontrar ese equilibrio. El dilema es el siguiente: el conocimiento avanza sin cesar y es probable que sea ilimitado; pocas veces los científicos detienen su trabajo para preguntarse si tiene o no sentido seguir investigando. Los eticistas cuestionan esa realidad; saben que el conocimiento (y la tecnología) puede ser ilimitado, pero se preguntan si es ético investigar todo lo que se desea estudiar.
A ese embrollo debe agregarse otro avatar vinculado con la justicia distributiva. A pesar de que su tratamiento no es oneroso, algunas enfermedades como la tuberculosis o la malaria matan a millones de personas en el mundo; lo mismo sucede con la desnutrición. Las víctimas pertenecen a los estratos socioeconómicos inferiores. Esa realidad choca con el inmenso costo de la biotecnología y sus productos. La mayoría de la humanidad no tiene acceso a ella. La diatriba, por supuesto retórica, descansa en el tejido de las prioridades: ¿cómo conciliar los costos que implican los avances biotecnológicos con las muertes por inanición o por falta de medicamentos? La realidad, ajena a la retórica, se lee en el mapamundi humano: el acceso a las bonanzas de la tecnología profundiza la brecha entre ricos y pobres, entre estar sano o enfermo, entre tener suerte y participar en la construcción del mundo o ser solamente un observador del movimiento.
La tecnología sorprende por la fascinación que produce y por su fuerza diagnóstica y terapéutica. Utilizarla parece obligado. En la medicina privada, quien no lo hace queda fuera del juego de la modernidad científica y marginado de los beneficios económicos que supone explotarla. Ese juego, muchas veces insano, genera otro problema inmenso. Aleja al médico del paciente y atenta contra el corazón de la medicina: la relación médico-paciente.
Francis Weld Peabody, eminente médico y humanista estadounidense, dijo en 1925, durante un discurso a sus alumnos de Harvard: “The secret of the care of the patient is in caring for the patient”, cuya traducción más apropiada sería: “El secreto en el cuidado del paciente radica en preocuparse por el paciente.” La vieja idea de Peabody es cada día más nueva y más vigente. El uso indiscriminado y exagerado de la tecnología médica incrementa la brecha entre doctor y enfermo, descuida los significados del término cuidar y merma, en aras del glamour y de los incentivos económicos, la lealtad hacia el enfermo, principio inequívoco de la profesión médica.
Otros problemas no menos importantes afloran cuando los doctores, en lugar de escuchar a los enfermos, solicitan exámenes ad nauseam, ya sea para esconder su incapacidad, para enriquecerse o para seguir los dictados de las grandes industrias y corporaciones hospitalarias. No es infrecuente, sobre todo cuando se realizan sin razones justificadas, que esos estudios causen daño –iatrogenia– o que se encuentren alteraciones que nada tienen que ver con el problema del enfermo y que seguramente serán motivo de nuevos exámenes y de la participación de más doctores en el estudio del enfermo. No en balde Molière utilizó en El enfermo imaginario su fina ironía: “¿Qué necesidad hay de cuatro médicos si con uno es suficiente para matar al paciente?” La espiral diagnóstica, aupada por las ofertas tecnológicas, puede no tener fin y sus resultados no ser necesariamente los adecuados.
La tecnología no es ni buena ni mala. Es neutra. Su uso debe ser racional y correcto. La ética aplicada a ella y al enfermo es inmejorable antídoto contra el mal uso que se le da y conciencia para impedir que la tecnología le gane la carrera al humanismo. La presión que ejercen quienes producen tecnología ha devenido en nuevas patologías que buscan convertir al sano en enfermo, a los síntomas en enfermedad y a los poco enfermos en muy enfermos. Regresar a los orígenes de la profesión no implica alejarse de las bonanzas de la medicina. Implica tratar y ocuparse de la persona y no de la enfermedad, porque, al igual que Phileas Fogg, viajero incansable, la obligación del médico es descubrir lo que siente la persona y no lo que dicta la tecnología médica. ~
Teléfono móvil o celular
Teléfono móvil con teclas multimedia.
 
El teléfono móvil es un dispositivo inalámbrico electrónico para acceder y utilizar los servicios de la red de telefonía celular o móvil. Se denomina celular en la mayoría de países latinoamericanos debido a que el servicio funciona mediante una red de celdas, donde cada antena repetidora de señal es una célula, si bien tambi
én existen redes telefónicas móviles satelitales. Su principal característica es su portabilidad, que permite comunicarse desde casi cualquier lugar. La principal función es la comunicación de voz, como el teléfono convencional.
La evolución de los teléfonos móviles de 1996 a 2007.

A partir del siglo XXI, los teléfonos móviles han adquirido funcionalidades que van mucho más allá de limitarse solo a llamar o enviar mensajes de texto, se podría decir que se han unificado (no sustituido) con distintos dispositivos tales como PDA, cámara de fotos, agenda electrónica, reloj despertador, calculadora, microproyector, GPS o reproductor multimedia, así como poder realizar una multitud de acciones en un dispositivo pequeño y portátil que lleva prácticamente todo el mundo de países desarrollados. A este tipo de evolución del teléfono móvil se le conoce como Smartphone.
La primera red comercial automática fue la de NTT de Japón en 1974 y seguido por la NMT en simultáneamente en Suecia, Dinamarca, Noruega y Finlandia en 1981 usando teléfonos de Ericsson y Mobira (el ancestro de Nokia). Arabia Saudita también usaba la NMT y la puso en operación un mes antes que los países nórdicos. El primer antecedente respecto al teléfono móvil en Estados Unidos es de la compañía Motorola, con su modelo DynaTAC 8000X. El modelo fue diseñado por el ingeniero de Motorola Rudy Krolopp en 1983. El modelo pesaba poco menos de un kilo y tenía un valor de casi 4000 dólares estadounidenses. Krolopp se incorporaría posteriormente al equipo de investigación y desarrollo de Motorola liderado por Martin Cooper. Tanto Cooper como Krolopp aparecen como propietarios de la patente original. A partir del DynaTAC 8000X, Motorola desarrollaría nuevos modelos como el Motorola MicroTAC, lanzado en 1989, y el Motorola StarTAC, lanzado en 1996 al mercado. Martin Cooper fue el pionero en esta tecnología, a él se le considera como "el padre de la telefonía celular" al introducir el primer radioteléfono, en 1973, en Estados Unidos, mientras trabajaba para Motorola; pero no fue hasta 1979 cuando aparecieron los primeros sistemas comerciales en Tokio, Japón por la compañía NTT.
En 1981, los países nórdicos introdujeron un sistema celular similar a AMPS (Advanced Mobile Phone System). Por otro lado, en Estados Unidos, gracias a que la entidad reguladora de ese país adoptó reglas para la creación de un servicio comercial de telefonía celular, en 1983 se puso en operación el primer sistema comercial en la ciudad de Chicago.
Con ese punto de partida, en varios países se diseminó la telefonía celular como una alternativa a la telefonía convencional inalámbrica. La tecnología tuvo gran aceptación, por lo que a los pocos años de implantarse se empezó a saturar el servicio. En ese sentido, hubo la necesidad de desarrollar e implantar otras formas de acceso múltiple al canal y transformar los sistemas analógicos a digitales, con el objeto de darle cabida a más usuarios. Para separar una etapa de la otra, la telefonía celular se ha caracterizado por contar con diferentes generaciones. A continuación, se describe cada una de ellas. En la actualidad tienen gran importancia los teléfonos móviles táctiles

 Funcionamiento

La comunicación telefónica es posible gracias a la interconexión entre centrales móviles y públicas.
Según las bandas o frecuencias en las que opera el móvil, podrá funcionar en una parte u otra del mundo.
La telefonía móvil consiste en la combinación de una red de estaciones transmisoras o receptoras de radio (repetidores, estaciones base o BTS) y una serie de centrales telefónicas de conmutación de 1er y 5º nivel (MSC y BSC respectivamente), que posibilita la comunicación entre terminales telefónicos portátiles (teléfonos móviles) o entre terminales portátiles y teléfonos de la red fija tradicional.
En su operación el teléfono móvil establece comunicación con una estación base, y a medida que se traslada, los sistemas computacionales que administran la red van cambiando la llamada a la siguiente estación base, en forma transparente para el usuario. Es por eso que se dice que las estaciones base forman una red de celdas, cual panal de abeja, sirviendo cada estación base a los equipos móviles que se encuentran en su celda.



Internet móvil
Módem USB para Internet móvil Huawei E220
Con la aparición de la telefonía móvil digital, fue posible acceder a páginas de Internet especialmente diseñadas para móviles, conocido como tecnología WAP.
Las primeras conexiones se efectuaban mediante una llamada telefónica a un número del operador a través de la cual se transmitían los datos de manera similar a como lo haría un módem de PC.
Posteriormente, nació el GPRS, que permitió acceder a Internet a través del protocolo TCP/IP. Mediante el software adecuado es posible acceder, desde un terminal móvil, a servicios como FTP, Telnet, mensajería instantánea, correo electrónico, utilizando los mismos protocolos que un ordenador convencional. La velocidad del GPRS es de 54 kbit/s en condiciones óptimas, y se tarifa en función de la cantidad de información transmitida y recibida.
Otras tecnologías más recientes que permiten el acceso a Internet son EDGE, EvDO, HSPA y WiMAX.
Por otro lado, cada vez es mayor la oferta de tablets (tipo iPad, Samsung Galaxy Tab, ebook o similar) por los operadores para conectarse a internet y realizar llamadas GSM (tabletas 3G).[1]
Aprovechando la tecnología UMTS, comienzan a aparecer módems para PC que conectan a Internet utilizando la red de telefonía móvil, consiguiendo velocidades similares a las de la ADSL. Este sistema aún es caro ya que el sistema de tarificación no es una verdadera tarifa plana sino algunas operadoras establecen limitaciones en cuanto a datos o velocidad. Por otro lado, dichos móviles pueden conectarse a bases WiFi 3G (también denominadas gateways 3G[2] [3] ) para proporcionar acceso a internet a una red inalámbrica doméstica.[4] [5]
Ya se comercializan productos 4G.
En 2011, el 20% de los usuarios de banda ancha tiene intención de cambiar su conexión fija por una conexión de Internet móvil.[6]

[editar] Fabricantes

Nokia es actualmente el mayor fabricante en el mundo de teléfonos móviles, con una cuota de mercado global de aproximadamente 39,1% en el segundo trimestre de 2012. Continúan la lista con un 14,4% Samsung, 10,2% Motorola, 8% LG y 7,5% Sony Ericsson. Entre otros fabricantes se encuentran Alcatel, Apple Inc. que ha crecido con la reciente llegada el iphone 5, Audiovox (hoy UT Starcom), Benefon, BenQ-Siemens, Hewlett Packard, Fujitsu, HTC, Huawei, Kyocera,Mitsubishi, NEC Corporation, Neonode, Panasonic (Matsushita Electric), Pantech Curitel, Philips, Research In Motion, SAGEM, Gtran, Sanyo, Sharp, Sierra Wireless, SK Teletech, Skyzen, TCL Corporation, Toshiba, Verizon, Zonda Telecom, Verykool, Tocs,fujitel, etc Contaminación electromagnética
La contaminación electromagnética, también conocida como electropolución, es la contaminación producida por las radiaciones del espectro electromagnético generadas por equipos electrónicos u otros elementos producto de la actividad humana.
Numerosos organismos como la Organización Mundial de la Salud,[7] la Comisión Europea,[8] la Universidad Complutense de Madrid,[9] la Asociación Española contra el Cáncer,[10] el Ministerio de Sanidad y Consumo de España, o el Consejo Superior de Investigaciones Científicas de España[11] han emitido informes que descartan daños a la salud debido a las emisiones de radiación electromagnética, incluyendo las de los teléfonos móviles.
No obstante existen estudios que indican lo contrario como el publicado en 2003 por el TNO (Instituto Holandés de Investigación Tecnológica), que afirmaba que las radiaciones de la tecnología UMTS podrían ser peligrosas,[12] (aunque otra investigación de la Universidad de Zurich,[13] , que utilizó hasta 10 veces la intensidad utilizada por el estudio del TNO, arrojó resultados contrarios). También hay numerosos estudios que investigan la posible asociación entre la presencia de antenas de telefonía celular y diversas enfermedades.[14]
Las normativas en vigor en los diversos países consideran seguro vivir en un edificio con una antena de telefonía y en los que lo rodean, dependiendo del nivel de emisiones de la misma. No se ha podido demostrar con certeza que la exposición por debajo de los niveles de radiación considerados seguros suponga un riesgo para la salud, pero tampoco se dispone de datos que permitan asegurar que no existen efectos a largo plazo. El Informe Steward encargado por el Gobierno del Reino Unido aconseja que los niños no usen el teléfono móvil más que en casos de emergencia. En base a estos posibles riesgos existen organizaciones que reclaman que se cumpla el principio de precaución y se mantengan las emisiones al mínimo.
Móvil con televisión.

[editar] La creación de un nuevo lenguaje

La mayoría de los mensajes que se intercambian por este medio, no se basan en la voz, sino en la escritura. En lugar de hablar al micrófono, cada vez más usuarios —sobre todo jóvenes— recurren al teclado para enviarse mensajes de texto. Sin embargo, dado que hay que introducir los caracteres en el terminal, ha surgido un lenguaje en el que se abrevian las palabras valiéndose de letras, símbolos y números. A pesar de que redactar y teclear es considerablemente más incómodo que conversar, dado su reducido coste, se ha convertido en una seria alternativa a los mensajes de voz.
El lenguaje SMS, consiste en acortar palabras, sustituir algunas de ellas por simple simbología o evitar ciertas preposiciones, utilizar los fonemas y demás. La principal causa es que el SMS individual se limita a 160 caracteres, si se sobrepasa ese límite, el mensaje individual pasa a ser múltiple, lógicamente multiplicándose el coste del envío. Por esa razón se procura reducir el número de caracteres, para que de un modo entendible, entre más texto o bien cueste menos.
Según un estudio británico,[cita requerida] entre los usuarios de 18 a 24 años un 42% los utilizan para coquetear; un 20%, para concertar citas románticas, y un 13%, para romper una relación.
A algunos analistas sociales[cita requerida] les preocupa que estos mensajes, con su jerga ortográfica y sintáctica, lleven a que la juventud no sepa escribir bien. Sin embargo, otros opinan que “favorecen el renacer de la comunicación escrita en una nueva generación”. La portavoz de una editorial que publica un diccionario australiano hizo este comentario al rotativo The Sun-Herald: “No surge a menudo la oportunidad de forjar un nuevo estilo [de escritura] [...;] los mensajes de texto, unidos a Internet, logran que los jóvenes escriban mucho más. Necesitan tener un dominio de la expresión que les permita captar el estilo y defenderse bien con el vocabulario y el registro [...] correspondientes a este género”.
 

Las tecnologías inalámbricas están teniendo mucho auge y desarrollo en estos últimos años, una de las que ha tenido un gran desarrollo ha sido la telefonía celular, desde sus inicios a finales de los 70s ha revolucionado enormemente las actividades que realizamos diariamente. Los teléfonos celulares se han convertido en una herramienta primordial para la gente común y de negocios, las hace sentir más segura y las hace más productivas.
A pesar que la telefonía celular fue concebida para la voz únicamente, debido a las limitaciones tecnológicas de esa época, la tecnología celular de hoy en día es capaz de brindar otro tipo de servicios tales como datos, audio y video con algunas limitaciones, pero la telefonía inalámbrica del mañana hará posible aplicaciones que requieran un mayor consumo de ancho banda.



BREVE HISTORIA DE LA TELEFONÍA CELULAR Martin Cooper fue el pionero en esta tecnología, a él se le considera como "el padre de la telefonía celular" al introducir el primer radioteléfono en 1973 en los Estados Unidos mientras trabajaba para Motorola; pero no fue hasta 1979 en que aparece el primer sistema comercial en Tokio Japón por la compañía NTT (Nippon Telegraph & Telephone Corp.)

En 1981 en los países Nórdicos se introduce un sistema celular similar a AMPS (Advanced Mobile Phone System). Por otro lado, en los Estados Unidos gracias a que la entidad reguladora de ese país adopta reglas para la creación de un servicio comercial de telefonía celular, en octubre de 1983 se pone en operación el primer sistema comercial en la ciudad de Chicago. A partir de entonces en varios países se diseminó la telefonía celular como una alternativa a la telefonía convencional alámbrica. La tecnología inalámbrica tuvo gran aceptación, por lo que a los pocos años de implantarse se empezó a saturar el servicio, por lo que hubo la imperiosa necesidad de desarrollar e implementar otras formas de acceso múltiple al canal y transformar los sistemas analógicos a digitales para darle cabida a más usuarios. Para separar una etapa de la otra, a la telefonía celular se ha categorizado por generaciones. A continuación se describen cada una de ellas.



LAS GENERACIONES DE LA TELEFONíA INALÁMBRICA

    La primer generación 1G La 1G de la telefonía móvil hizo su aparición en 1979, se caracterizó por ser analógica y estrictamente para voz. La calidad de los enlaces de voz era muy baja, baja velocidad [2400 bauds], la transferencia entre celdas era muy imprecisa, tenían baja capacidad [basadas en FDMA, Frequency Divison Multiple Access] y la seguridad no existía. La tecnología predominante de esta generación es AMPS (Advanced Mobile Phone System).
    La segunda generación 2G La 2G arribó hasta 1990 y a diferencia de la primera se caracterizó por ser digital. El sistema 2G utiliza protocolos de codificación más sofisticados y son los sistemas de telefonía celular usados en la actualidad. Las tecnologías predominantes son: GSM (Global System for Mobile Communications); IS-136 (conocido también como TIA/EIA-136 o ANSI-136) y CDMA (Code Division Multiple Access) y PDC (Personal Digital Communications), éste último utilizado en Japón.
    Los protocolos empleados en los sistemas 2G soportan velocidades de información mas altas para voz pero limitados en comunicaciones de datos. Se pueden ofrecer servicios auxiliares tales como datos, fax y SMS [Short Message Service]. La mayoría de los protocolos de 2G ofrecen diferentes niveles de encriptación. En los Estados Unidos y otros países se le conoce a 2G como PCS (Personal Communications Services).
    La generación 2.5G
    Muchos de los proveedores de servicios de telecomunicaciones (carriers) se moverán a las redes 2.5G antes de entrar masivamente a 3G. La tecnología 2.5G es más rápida y más económica para actualizar a 3G.
    La generación 2.5G ofrece características extendidas para ofrecer capacidades adicionales que los sistemas 2G tales como GPRS (General Packet Radio System), HSCSD (High Speed Circuit Switched Data), EDGE (Enhanced Data Rates for Global Evolution), IS-136B, IS-95B, entre otros. Los carriers europeos y de Estados Unidos se moverán a 2.5G en el 2001. Mientras que Japón ira directo de 2G a 3G también en el 2001.
    La tercer generación 3G La 3G es tipificada por la convergencia de la voz y datos con acceso inalámbrico a Internet, aplicaciones multimedia y altas transmisiones de datos. Los protocolos empleados en los sistemas 3G soportan más altas velocidades de información enfocados para aplicaciones mas allá de la voz tales como audio (MP3), video en movimiento, video conferencia y acceso rápido a Internet, sólo por nombrar algunos. Se espera que las redes 3G empiecen a operar en el 2001 en Japón por NTT DoCoMo, en Europa y parte de Asia en el 2002, posteriormente en Estados Unidos y otros países.
    Los sistemas 3G alcanzaran velocidades de hasta 384 Kbps permitiendo una movilidad total a usuarios viajando a 120 kilómetros por hora en ambientes exteriores y alcanzará una velocidad máxima de 2 Mbps permitiendo una movilidad limitada a usuarios caminando a menos de 10 kilómetros por hora en ambientes estacionarios de corto alcance o en interiores. Entre las tecnologías contendientes de la tercera generación se encuentran UMTS (Universal Mobile Telephone Service), cdma2000, IMT-2000, ARIB[3GPP], UWC-136, entre otras.
    El impulso de los estándares de la 3G está siendo apoyando por la ITU (International Telecomunications Union) y a este esfuerzo se le conoce como IMT-2000 (International Mobile Telephone).
    La cuarta generación 4G La cuarta generación es un proyecto a largo plazo que será 50 veces más rápida en velocidad que la tercer generación. Se planean hacer pruebas de esta tecnología hasta el 2005 y se espera que se empiecen a comercializar la mayoría de los servicios hasta el 2010.


EL ESTATUS ACTUAL DE LA TELEFONÍA MÓVIL
Existen hoy en día tres tecnologías de telefonía celular predominantes en el mundo: IS-136, IS-95 y GSM.
IS-136 (Interim Standard 136) fue la primer tecnología digital de telefonía celular (D-AMPS, versión la versión digital de AMPS) desarrollada en Estados Unidos, IS-136 esta basada en TDMA (Time Division Multiple Access), una técnica de acceso múltiple la cual divide los canales de radio en tres ranuras de tiempo, cada usuario recibe en una ranura diferente. Este método permite a tres usuarios en cada canal de radio comunicarse sin interferirse uno con el otro. D-AMPS (IS-54) es utilizado principalmente en Norteamérica, Latinoamérica, Australia, partes de Rusia y Asia.


Por otro lado, CDMA, tecnología desarrollada por Qualcomm, utiliza la tecnología de espectro disperso en la cual muchos usuarios comparten simultáneamente el mismo canal pero cada uno con diferente código. Lo anterior permite una mayor capacidad en usuarios por celda. A CDMA de segunda generación se le conoce como cdmaOne. Hasta diciembre del 2000 existen más de 27 millones de usuarios en más de 35 países alrededor del mundo utilizando cdmaOne.

GSM (siglas derivadas originalmente de Groupe Spéciale Mobile) es tecnología celular desarrollada en Europa considerada como la tecnología celular más madura, con mas de 200 millones de usuarios en mas de 100 países alrededor del mundo. GSM es un servicio de voz y datos basado en conmutación de circuitos de alta velocidad la cual combina hasta 4 ranuras de tiempo en cada canal de radio.









LA BATALLA POR LA SUPREMACIA CELULAR La industria de la telefonía celular se está preparando para la batalla de la década entre los estándares IS-95/CDMA2000 y GSM/W-CDMA, dos tecnologías consideradas como las más importantes en el ramo de la telefonía inalámbrica. Existen varias consideraciones entre ambas tecnologías contrincantes como las siguientes: W-CDMA construida bajo los protocolos de la red de GSM, les será más fácil a los proveedores de servicios de GSM emigrar a W-CDMA que a CDMA2000. Por otro lado a los proveedores de servicios de IS-95 les será más fácil emigrar a CDMA2000. Otra consideración de mayor importancia son los derechos de propiedad intelectual. La compañía Qualcomm, quién es dueña de muchas patentes de CDMA, tiene la más fuerte posición con respecto a la propiedad intelectual con CDMA2000 que con W-CDMA. De hecho, la industria celular europea inventó W-CDMA en parte para trabajar con las patentes de Qualcomm.

En los Estados Unidos se verán ambas tecnologías compitiendo en el mercado, pero muchos de los países del resto del mundo se inclinan más por el uso de W-CDMA. La dominación potencial de W-CDMA en el mundo pondría a dudar a algunos operadores de IS-95 en países como Japón y Corea para aceptar W-CDMA, en vez de arriesgarse a tener sistemas que no son compatibles con los sistemas celulares de los países vecinos.

Independientemente de cual tecnología se imponga, ambas tecnologías ofrecen alta velocidad con soporte de IP, los clientes fácilmente podrán transferir aplicaciones de una red a otra y dispositivos multimodo en un futuro próximo podrán hacer posible la intercomunicación entre ambas tecnologías.

Qué es UMTS UMTS (Universal Mobile Telephone Service) es un sistema móvil de tercera generación que está siendo desarrollado por el organismo ETSI (European Telecommunications Standards Institute) junto el IMT-2000 de la ITU. UMTS es sistema europeo que está intentando combinar la telefonía celular, teléfonos inalámbricos, redes locales de datos, radios móviles privados y sistemas de radiolocalización (paging). Va a proveer velocidades de hasta 2 Mbps haciendo los videoteléfonos una realidad. Las licencias de UMTS están atrayendo gran interés entre los carriers del continente europeo debido a que representa una oportunidad única para crear un mercado en masa para el acceso a la información, altamente personalizado y amigable para la sociedad. UMTS busca cimentar y extender el potencial de las tecnologías móviles, inalámbricas y satelitales de hoy en día.



EL FUTURO DE LA TELEFONÍA MÓVIL Lo que sigue en este momento es esperar a que los carriers ofrezcan los servicios de 3G. Por ejemplo, en Japón ya están operando con las tecnologías de 3G. El servicio con más éxito es i-mode de NTT DoCoMo que utiliza una red basada en paquetes conocida como PDC-P, aunque es una tecnología propietaria tiene actualmente más de 17 millones de subscriptores. NTT DoCoMo también piensa incursionar con W-CDMA y sus contendientes en ese país para servicios 3G son DDI y J-Phone. En Estados Unidos, compañías como Qualcomm y Sprint PCS ya empezaron a realizar pruebas del servicio 3G.

La batalla por las licencias de 3G de UMTS es otro asunto de gran importancia y varias son las compañías las involucradas en obtener las valiosas licencias de telefonía móvil de tercera generación, tales como: Telecom Italia (Italia); Vodafone, Orange y BT Cellnet (Inglaterra); T-Mobil (Alemania), France Telecom (Francia); KPN Telecom (Holanda), NTTDoCoMo (Japón), etc. Las compañías que dominan mercados pequeños deberán aliarse con los grupos grandes.

A parte de las cantidades enormes de dinero que cuestan las licencias, hay que tomar en cuenta que las redes telefónicas de estos carriers son redes grandes y complejas, por lo que les tomará tiempo y grandes inversiones de capital para implementar la tecnología. Pero muchas de las ventajas de esas redes son que varias de ellas ya están ofreciendo servicios de datos, y prevalecerán aquellas empresas de telecomunicaciones que tengan la mayor experiencia en tecnologías inalámbricas y tomen ventaja de ello para las nuevas redes del futuro.

En relación en predicciones en cuanto a usuarios móviles, The Yankee Group anticipa que en el 2004 habrá más de 1150 Millones de usuarios móviles en el mundo, comparados con los 700 millones que hubo en el 2000. Por otra parte Ericsson predice que habrá 1000 millones de usuarios en el 2002. Dichas cifras nos anticipan un gran numero de capital involucrado en la telefonía inalámbrica, lo que con más razón las compañías fabricantes de tecnología, así como los proveedores de servicios de telecomunicaciones estarán dispuestos a invertir su capital en esta nueva aventura llamada 3G.

Independientemente de cual tecnología en telefonía inalámbrica predomine, lo único que le interesa al usuario final es la calidad de voz, que no se bloqueen las llamadas y que en realidad se ofrezcan las velocidades prometidas. El tiempo y las fuerzas del mercado nos darán la razón.