MUNDO DE LAS TELECOMUNICACIONES

Telecomunicaciones

RADAR

Publicado el 6 de Marzo, 2006, 19:14. en General.
Referencias (0)

RADAR

1 Introducción

Radar, sistema electrónico que permite detectar objetos fuera del alcance de la vista y determinar la distancia a que se encuentran proyectando sobre ellos ondas de radio. La palabra "radar" corresponde a las iniciales de "radio detection and ranging". El radar, que designaba diversos equipos de detección, fue utilizado por las fuerzas aliadas durante la II Guerra Mundial. No sólo indicaba la presencia y distancia de un objeto remoto, denominado objetivo, sino que fijaba su posición en el espacio, su tamaño y su forma, así como su velocidad y la dirección de desplazamiento. Aunque en sus orígenes fue un instrumento bélico, hoy se utiliza ampliamente para fines pacíficos, como la navegación, el control del tráfico aéreo, la detección de fenómenos meteorológicos y el seguimiento de aeronaves.

2 Desarrollo

Todos los sistemas de radar utilizan un transmisor de radio de alta frecuencia que emite un haz de radiación electromagnética, con una radiación de longitud de onda comprendida entre algunos centímetros y cerca de 1 m. Los objetos que se hallan en la trayectoria del haz reflejan las ondas de nuevo hacia el transmisor. El radar se fundamenta en las leyes de la reflexión de las ondas de radio, implícitas en las ecuaciones que controlan el comportamiento de las ondas electromagnéticas, planteadas por el físico británico James Clerk Maxwell en 1864. Estas leyes quedaron demostradas por primera vez en 1886 a la vista de los experimentos del físico alemán Heinrich Hertz. El ingeniero alemán Christian Hülsmeyer fue el primero en sugerir el aprovechamiento de este tipo de eco mediante su aplicación a un dispositivo de detección diseñado para evitar colisiones en la navegación marítima. En 1922, el inventor italiano Guglielmo Marconi desarrolló un aparato similar.

El primer experimento satisfactorio de detección a distancia tuvo lugar en 1924, cuando el físico británico Edward Victor Appleton utilizó el eco de las ondas de radio para averiguar la altura de la ionosfera —una capa ionizada de la atmósfera más alta capaz de reflejar las ondas de radio más largas. Al año siguiente, los físicos estadounidenses Gregory Breit y Merle Antony Tuve llegaron de forma independiente a los mismos valores para la ionosfera al usar la técnica de radioimpulsos, que más tarde se incorporó a todos los sistemas de radar. Su desarrollo no fue posible hasta la década de 1930, cuando se perfeccionaron las técnicas y equipos electrónicos.

El primer sistema útil de radar lo construyó en 1935 el físico británico Robert Watson-Watt. Sus investigaciones proporcionaron a Inglaterra una ventaja de partida en la aplicación de esta tecnología estratégica; en 1939 ya disponía de una cadena de estaciones de radar en las costas meridionales y orientales capaces de detectar agresiones tanto por aire como por mar. Ese mismo año, dos científicos británicos lograron el avance más importante para la tecnología del radar durante la II Guerra Mundial. El físico Henry Boot y el biofísico John T. Randall inventaron un tubo de electrones denominado magnetrón de cavidad resonante. Este tipo de tubo es capaz de generar impulsos de radio de alta frecuencia con mucha energía, lo que permitió el desarrollo del radar de microondas, que trabaja en la banda de longitudes de onda muy pequeñas, inferiores a 1 cm, usando el láser. El radar de microondas, conocido también como LIDAR (light detection and ranging), se utiliza hoy en el sector de las comunicaciones y para medir la contaminación atmosférica.

Los sistemas de radar más evolucionados que se construyeron en la década de 1930 desempeñaron un papel decisivo en la batalla de Inglaterra, que se libró en 1940, y en la que la Luftwaffe de Adolf Hitler fracasó en su intento de adueñarse del espacio aéreo inglés. Aunque los alemanes disponían de sistemas propios de radar, los ejércitos británico y estadounidense supieron preservar su superioridad técnica hasta el final del conflicto.

3 Funcionamiento

Las ondas de radio se desplazan aproximadamente a 300.000 km/s, la velocidad de la luz. Los equipos de radar están compuestos por un transmisor, una antena, un receptor y un indicador. A diferencia de la radiodifusión, en la que el transmisor emite ondas de radio que son captadas por el receptor, los transmisores y receptores de radar suelen hallarse juntos. El transmisor emite un haz de ondas electromagnéticas a través de una antena, que concentra las ondas en un haz coherente apuntando en la dirección deseada. Cuando las ondas chocan con un objeto que se halla en la trayectoria del haz, algunas se reflejan y forman una señal de eco. La antena capta la energía contenida en dicha señal y la envía al receptor. Mediante un proceso de amplificación y tratamiento informático, el receptor del radar genera una señal en el dispositivo de visualización, por lo general una pantalla de ordenador o computadora.

3.1 Transmisores

El funcionamiento del radar implica que el transmisor emita una gran cantidad de energía para recibir, detectar y cuantificar una mínima fracción (una millonésima de una billonésima) de toda la energía de radio devuelta en forma de eco. Una forma de solucionar el problema de detectar este eco ínfimo en presencia de la enorme señal emitida es el sistema de impulsos. Durante un lapso de 0,1 a 5 microsegundos se emite un impulso de energía; a continuación, el transmisor permanece en silencio durante un espacio de centésimas o milésimas de microsegundo. Durante la fase de impulso, o emisión, el receptor queda aislado de la antena por medio de un conmutador TR (transmisor-receptor); durante el periodo entre impulsos, esta desconexión se efectúa con un conmutador ATR (anti-TR).

El radar de onda continua emite una señal continua, en vez de impulsos. El radar Doppler, que se utiliza a menudo para medir la velocidad de objetos como un coche o una pelota, transmite con una frecuencia constante. Las señales reflejadas por objetos en movimiento respecto a la antena presentarán distintas frecuencias a causa del efecto Doppler. La diferencia de frecuencias guarda la misma relación con la emitida que la existente entre las velocidades del objetivo y la de la luz. Un objetivo que se desplaza hacia el radar con una velocidad de 179 km/h altera la frecuencia de un radar de 10-cm (3.000 megahercios, MHz) exactamente en 1 kilohercio.

Si el receptor del radar está diseñado de forma que rechace aquellos ecos que poseen la misma frecuencia que el transmisor y sólo amplifica los de frecuencia distinta, únicamente visualizará los objetivos móviles. Estos receptores pueden seleccionar vehículos en movimiento en total oscuridad, como hace la policía para medir la velocidad de los automóviles.

El radar de frecuencia modulada (FM) emite una señal continua cuya frecuencia va cambiando de manera uniforme. La diferencia entre las frecuencia del eco y la del transmisor en el momento de la recepción de aquél permite calcular la distancia existente entre transmisor y objetivo. Estos sistemas son más exactos que los de impulsos, aunque tienen un alcance menor.

Las antenas de radar tienen que ser muy directivas, es decir, tienen que generar un haz bastante estrecho. Como la anchura del haz es directamente proporcional a la longitud de onda de la radiación e inversamente proporcional a la anchura de la antena, y dado que no resulta viable utilizar antenas grandes en las unidades móviles de radar, surgió la necesidad de construir el radar de microondas.

Otras ventajas de los radares de microondas son su menor vulnerabilidad a las medidas preventivas del enemigo, como las perturbaciones, y la mayor resolución de los objetivos. El movimiento necesario del haz del radar se consigue imprimiendo un movimiento denominado barrido. La forma más sencilla de barrido consiste en hacer girar lenta y continuamente la antena. Los radares de tierra que se emplean para la detección de aviones, a menudo llevan dos equipos de radar: uno efectúa el barrido en sentido horizontal para visualizar el avión y calcular el acimut, la distancia angular horizontal, y el otro lo realiza en sentido vertical para fijar su elevación. Muchas de las actuales antenas de radar llevan una batería con direccionamiento electrónico.

3.2 Antenas

Las antenas de radar tienen que ser muy directivas, es decir, tienen que generar un haz bastante estrecho. Como la anchura del haz es directamente proporcional a la longitud de onda de la radiación e inversamente proporcional a la anchura de la antena, y dado que no resulta viable utilizar antenas grandes en las unidades móviles de radar, surgió la necesidad de construir el radar de microondas.

Otras ventajas de los radares de microondas son su menor vulnerabilidad a las medidas preventivas del enemigo, como las perturbaciones, y la mayor resolución de los objetivos. El movimiento necesario del haz del radar se consigue imprimiendo un movimiento denominado barrido. La forma más sencilla de barrido consiste en hacer girar lenta y continuamente la antena. Los radares de tierra que se emplean para la detección de aviones, a menudo llevan dos equipos de radar: uno efectúa el barrido en sentido horizontal para visualizar el avión y calcular el acimut, la distancia angular horizontal, y el otro lo realiza en sentido vertical para fijar su elevación. Muchas de las actuales antenas de radar llevan una batería con direccionamiento electrónico.

3.3 Receptores

El receptor ideal debe ser capaz de amplificar y medir una señal muy débil con una frecuencia muy elevada. Como hasta ahora no se ha conseguido construir un amplificador móvil que cumpla esta función de forma satisfactoria, la señal se convierte a una frecuencia intermedia de 30 MHz mediante un circuito superheterodino y se amplifica a dicha frecuencia. La altísima frecuencia de la señal del radar exige un oscilador y un mezclador con una precisión muy superior a la que se utiliza en los receptores normales de radio; no obstante, ya se han construido circuitos apropiados que utilizan como osciladores tubos de microondas de alta potencia denominados klistrones. La conversión de la frecuencia intermedia se efectúa de forma habitual y la señal se envía a continuación a una computadora.

3.4 Tratamiento informático

La mayoría de los radares modernos convierten la señal analógica recibida a una secuencia de números por medio de un convertidor analógico digital. Un ordenador de alta velocidad se encarga de procesar esta secuencia y extraer la información relativa al objetivo. En primer lugar, la señal retorna de tierra, donde se eliminan los objetos irrelevantes mediante un filtro indicador de objetivo móvil (MTI). A continuación se fracciona la señal en componentes discretos de frecuencia por medio de un transformador rápido de frecuencias (FFT). Por último, una vez combinadas las señales de muchos pulsos, se determina el objetivo mediante el procesador de frecuencia constante de falsa alarma (CFAR).

Los sistemas de radar cuya función principal consiste en detectar objetivos tienen que indicar la presencia o ausencia de éstos. Si el objetivo se halla realmente presente, el radar tendrá que detectarlo correctamente o ignorarlo por error. Si el objetivo no está presente de verdad, el radar puede indicar que no hay presencia del objetivo o puede producir una falsa alarma. La computadora CFAR tiene que ponderar de forma óptima las detecciones frente a las falsas alarmas.

3.5 Pantallas de radar

Las pantallas modernas de radar recuerdan a los complejos visores de los videojuegos. La detección de objetivos, la velocidad y la posición se pueden sobreponer a un mapa con la representación de carreteras u otras características importantes. Ciertos radares aéreos o en órbita espacial procesan las señales que retornan de tierra y proyectan un mapa de alta resolución del terreno. A menudo se pueden reconocer objetos tan pequeños como un camión a varios kilómetros de distancia, de noche y en condiciones meteorológicas adversas. La mayoría de los últimos avances en cuanto a pantallas y procesos de radar son consecuencia de los adelantos en el mundo de las computadoras y la electrónica de alta velocidad.

3.6 Modulador de impulsos

Todo equipo de radar normal posee otro componente importante: el modulador de impulsos. Este dispositivo se encarga de extraer continuamente corriente de una fuente de energía, como un generador, para alimentar el magnetrón del transmisor con impulsos del voltaje, potencia, duración e intervalo precisos. El impulso debe comenzar y finalizar de manera abrupta, pero la potencia y el voltaje no deben variar de forma apreciable durante el impulso.

4 Sistema secundario de radar

Los sistemas de radar descritos reciben el nombre de sistemas primarios y funcionan sobre el principio de un eco pasivo procedente del objetivo. Hay otro grupo de equipos de radar, conocidos globalmente como sistemas secundarios, que se basan en una respuesta del objetivo; la mayoría de estos equipos se utilizan en la navegación y en la comunicación.

4.1 Radiofaro de respuesta

Un faro de radar, también denominado racon, es un equipo secundario de radar que emite un impulso cada vez que recibe otro. Estos faros amplían en gran medida el alcance de los radares, ya que un impulso emitido, aunque proceda de un transmisor de baja potencia, siempre es mucho más potente que el eco. El transmisor de radar que emite el impulso inicial se denomina el interrogador y la acción de este impulso sobre el faro recibe el nombre de disparo. El radiofaro en su versión más sencilla emite, casi instantáneamente, un único impulso de la misma frecuencia recibida, que actúa como un potente eco.

Sin embargo, los radiofaros pueden presentar muchas variantes; por ejemplo, el faro puede responder con una frecuencia distinta o puede incorporar un retardo, de manera que parezca hallarse a mayor distancia del interrogador. Estos retardos se utilizan en los sistemas de aterrizaje asistido para medir la distancia desde la pista de aterrizaje en vez de desde el radiofaro. El radiofaro puede estar diseñado para que sólo se dispare por impulsos dentro de una estrecha gama de frecuencias, con una longitud determinada o cualquier otra característica; los radiofaros también pueden devolver una respuesta codificada, garantizando que el navegante no pueda confundir el punto que aparece en su pantalla. En tiempos de paz, los radiofaros más sencillos resultan de gran utilidad como ayudas a la navegación, sobre todo si se emplean junto con equipos de radar de baja potencia.

4.2 Identificación de radar (IFF)

Se trata de un radiofaro codificado, instalado en aviones con fines de identificación en tiempo de guerra; IFF es la abreviatura de Identification, Friend or Foe. Durante la II Guerra Mundial, todos los aviones y barcos aliados llevaban equipos IFF y, aunque muchos de ellos cayeron en manos del enemigo, nunca pudieron ser utilizados de forma eficaz para confundir a las fuerzas aliadas, ya que la codificación de la interrogación y la respuesta se modificaba habitualmente. El mayor problema planteado por el IFF radicaba en la confusión de señales en situaciones de gran densidad de tráfico aéreo. Los equipos IFF poseían un interruptor de emergencia, que al ser accionado por un miembro de la tripulación de un avión en apuros alertaba de inmediato al radar interrogador fijando la posición de aquél.

5 Contramedidas

Durante la I Guerra Mundial apenas se practicó la perturbación de las comunicaciones de radio enemigas. Sin embargo, durante la II Guerra Mundial la interferencia de las comunicaciones de radar tuvo una importancia estratégica, ya que ambos bandos se apoyaron en el radar para desarrollar diferentes actividades bélicas. Hay dos métodos básicos para perturbar el radar del enemigo: la perturbación electrónica, transmitiendo con frecuencias capaces de interferir los receptores del enemigo, y la mecánica, lanzando objetos como pequeñas láminas de aluminio, que producen ecos e interfieren la detección de los objetivos reales. En la actualidad, dada la proliferación de emisiones de televisión, teléfonos móviles y otros radares, gran parte de las interferencias son involuntarias.

5.1 Radar en órbita espacial

Los radares instalados en satélites que se hallan en órbita espacial sirven para controlar los recursos terrestres y marítimos, una actividad de creciente importancia en una época de recalentamiento global y escasez de recursos naturales cada vez mayor. Otras aplicaciones importantes son el control de las cosechas y la predicción meteorológica. Los radares en órbita constituyen un componente esencial en la SDI, la Iniciativa de Defensa Estratégica.

6 Aplicaciones pacíficas

Aparte de en la navegación marítima y aérea, el radar ha encontrado una aplicación casi universal en la meteorología y la predicción del tiempo, no sólo para localizar perturbaciones importantes como los huracanes o los tornados, sino para efectuar seguimientos de las condiciones climatológicas locales. Los equipos de radar también proporcionan información acerca del volumen de las precipitaciones, y permiten alertar con antelación sobre posibles inundaciones.

Un importante desarrollo reciente es el uso del LIDAR para controlar la contaminación atmosférica y otras partículas en suspensión, pues a menudo se pueden identificar otros tipos de sustancias químicas y medir su concentración.

La policía utiliza otro tipo de radar en el control del tráfico, para determinar la velocidad de los vehículos y cuantificar la densidad del tráfico en las principales calles, así como para controlar automáticamente los semáforos.

Una de las aplicaciones principales del radar es el control del tráfico aéreo a fin de guiar los aviones hasta las pistas de aterrizaje y tener controlados a los que se encuentran en vuelo (véase Control aéreo). El sistema de aproximación controlado desde tierra se compone de dos haces de radar diferentes, uno que efectúa el barrido en vertical y el otro en horizontal. El piloto dispone de un receptor de radio, y de hecho es conducido totalmente por los técnicos de tierra. A este fin también se utilizan los faros de radar. Se diferencian de los primeros por cuanto precisan de un radar a bordo del avión. La mayoría de los radares van equipados con un conmutador para pasar de la función de búsqueda a la de faro. Los impulsos de éste son relativamente prolongados; cuando son emitidos por el avión, los capta el faro de radar que comunica al avión su posición, apareciendo en la pantalla.

Los últimos avances, entre los que se incluyen la mejora de las técnicas para aumentar el contraste entre las señales buenas en el radar y las de ruido aleatorio, han aumentado de manera notable el alcance operativo del radar, ampliando su aplicación a la observación de los misiles de gran altitud y los satélites artificiales. Estas técnicas también encuentran aplicación en la astronomía radar. El radar es, además, un elemento esencial de los sistemas de defensa a la hora de detectar los misiles balísticos intercontinentales.

por: will.telecom@hotmail.com


telecomunicaciones

Publicado el 1 de Marzo, 2006, 16:00. en General.
Referencias (0)

TELECOMUNICACIONES

Las tecnologías alámbrica e inalámbrica de telecomunicaciones. Orígenes y desarrollo

En este capítulo expondremos las indagaciones teóricas iniciales sobre electricidad y magnetismo, asi como los principales experimentos que condujeron al invento del telégrafo y el teléfono, cuyos estudios pioneros tuvieron lugar en Europa y Norteamérica desde mediados del siglo XVII. Nos referiremos también al descubrimiento de las ondas radioeléctricas en el último tercio del siglo XVII. En conjunto, estos descubrimientos e inventos darían lugar a transmisiones eléctricas telegráficas y telefónicas a través de cables y también a las transmisiones inalámbricas. Antes de abordar estos temas revisaremos la definición de las telecomunicaciones asi como su relación con la radiodifusión.

Definición de las telecomunicaciones

En sentido amplio las telecomunicaciones comprenden los medios para transmitir, emitir o recibir, signos, señales, escritos, imágenes fijas o en movimiento, sonidos o datos de cualquier naturaleza, entre dos o más puntos geográficos a cualquier distancia a través de cables, radioelectricidad, medios ópticos u otros sistemas electromagnéticos. El concepto de telecomunicaciones es relativamente nuevo, pues hasta mediados de los sesenta fue incluído en los diccionarios. Al seno de la misma Unión Internacional de Telecomunicaciones (UIT) se tuvieron que hacer grandes esfuerzos en los setenta y los ochenta para avanzar hacia una definicion aceptable. Su significado ha evolucionado rápidamente por la convergencia de diferentes tecnologías que han posibilitado la interconexión de artefactos electrónicos y por la comunicación entre personas, no nada más en una, sino en varias direcciones.

El concepto se utiliza indistintamente como sinónimo de transmisión de datos, de radiodifusión, de comunicación de voz y también se le identifica con algunos componentes de la industria de entretenimiento.

Telecomunicaciones y radiodifusión

Es común que a las telecomunicaciones se les confunda con la radiodifusión, quizá porque esta última nos es más familiar. La radiodifusión se refiere a estaciones de radio y televisión que envían señales a aparatos receptores para una audiencia masiva. Son señales electrónicas que viajan a través del aire y son difundidas a una amplia región. La estación de radio usa radioondas que no son transportadas por cable u otras facilidades, pues viajan directamente a los radioescuchas que sintonizan una estación. Tales estaciones son difusoras en el sentido tradicional.

Sin embargo, la radiodifusión ha pasado a tener mayor similitud, o a ser parte de los sistemas de telecomunicaciones, pues las transmisiones para radio y televisión se realizan también vía telefónica a través de sistemas de satélites que se identifican con las telecomunicaciones. Un sistema local de cable puede, por ejemplo, recoger la señal de la estación de radio y alimentar a sus suscriptores en uno de los canales de cable. Así, se constata que el término radiodifusión (broadcasting) no es suficientemente amplio como para aplicarse a todas las tecnologías que ahora son parte del espectro de la comunicación electrónica. De ahí que el término telecomunicaciones se haya adoptado para incluir a sistemas de comunicación alámbricos e inalámbricos, en uno o más direcciones, donde queda incluído el término radiodifusión.

El concepto telecomunicaciones se ha enriquecido por la emergencia de medios interactivos como la misma telefonía, computación, televisión y televisión por cable, que paulatinamente vienen disminuyendo las diferencias tecnológicas existentes entre ellos. La televisión por cable, por ejemplo, permite a los expectadores hablar electrónicamente a su aparato de televisión, seleccionar información de un banco central de datos y solicitar servicios de video, compras caseras, programas educativos, etcétera. Es decir, un mismo medio posee las capacidades tecnológicas que anteriormente se daban separadas.

Las telecomunicaciones de la actualidad se conforman básicamente por tres grandes medios de transmisión: cables, radio y satélites. Las transmisiones por cable se refieren a la conducción de señales eléctricas a través de distintos tipos de líneas. Las más conocidas son las redes de cables metálicos (de cobre, coaxiales, hierro galvanizado, aluminio) y fibra óptica. Los cables metálicos se tienden en torres o postes formando líneas aéreas, o bién en conductos subterráneos y submarinos, donde se colocan también las fibras ópticas. Para las transmisiones por radio se utilizan señales eléctricas por aire o el espacio en bandas de frecuencia relativamente angostas. Las comunicaciones por satélites presuponen el uso de satélites artificiales estacionados en la órbita terrestre para proveer comunicaciones a puntos geográficos predeterminados.

La electricidad y el magnetismo,

bases para la transmisión de mensajes

La evolución de las redes de telecomunicación ha dependido del desarrollo de materiales conductores, la explotación del espectro radioeléctrico y el diseño de artefactos para generar y recibir radiaciones. Por ello, las telecomunicaciones son fruto de los cambios de la física desde antes de la primera revolución industrial, aunque su desarrollo se hace presente desde el siglo XIX. Los aportes científicos y tecnológicos de la electrónica, microelectrónica, ciencia de materiales y el espacio, óptica, cibernética, entre otros, ya en el siglo XX incidieron directamente en el perfeccionamiento de las primeras redes y la diversificación de servicios.

Los estudios sobre electricidad y magnetismo se iniciaron a mediados del siglo XVII, considerándose como dos fenómenos distintos y separados. Las investigaciones sobre el magnetismo no se realizaban con el mismo interés que la primera, aunque desde antes de la Era Cristiana, los chinos utilizaban piedras-imanes como brújulas. Entre los estudios sobre magnetismo, sobresalen desde principios del siglo XVII, el del inglés William Gilbert que en 1600 publicó el libro De Magnete donde consideraba a la tierra como un gran imán girando en el espacio y establecía una base racional para comprender el movimiento de la aguja de una brújula y su atracción hacia los polos norte y sur de la tierra. Para Inglaterra, esto significó, en momentos en que poseía la marina más poderosa del mundo, un pilar estratégico para la navegación comercial y la conquista de territorios. Curiosamente, por esa misma fecha, Gilbert fue nombrado médico de la Reina. Para 1675, el físico irlandés Robert Boyle (1627-1691) construyó una bomba de vacío lo suficientemente eficiente para probar que el magnetismo funcionaba bién tanto en el vacío como en la atmósfera.

En este mismo siglo, los experimentos para generar, almacenar y conducir electricidad fueron constantes. El físico alemán Otto von Guericke (1602-1682) generó electricidad en laboratorio cuando construyó en 1665 el globo rotatorio o esfera que producía chispas por fricción. La máquina de Guericke consistía en una gran esfera de cristal que contenía sulfuro, se montaba sobre un eje con manivela y al hacerla girar a gran velocidad tocaba una tela de tal forma que soltaban chispas entre dos bornes separados que hacían contacto con la esfera por medio de unas escobillas.

En 1729, el inglés Stephen Gray (1666-1736) descubrió la manera de transmitir electricidad por frotamiento de varillas de vidrio. Posteriormente, en 1745, el prusiano Ewald Ch. von Kleist (1715-1759) realizó experimentos para acumular electricidad; en una botella de cristal medio llena de agua y sellada con un corcho, introdujo un clavo hasta hacerlo tocar el agua, luego aproximó la cabeza del clavo a una máquina de fricción para comunicarle carga; al poner en contacto la cabeza del clavo a un cuerpo no electrificado para ver si había capturado electricidad, saltó una potente chispa que estremeció su brazo. Había descubierto que la energía se puede almacenar.

Años después, en 1753, el estadista y politólogo norteamericano Benjamin Franklin (1706-1790) hizo descender una corriente eléctrica de una nube tormentosa, sometió a prueba el pararrayos e ideó la manera de conservar la carga eléctrica.

El francés Charles Coulomb (1736-1806), encontró en 1785 la forma de medir la electricidad y el magnetismo. Finalmente en 1795 el físico italiano Alessandro Volta (1745-1827) consiguió producir y almacenar electricidad. Volta creyó que la electricidad procedía de los metales, por lo que construyó una pila voltaica o batería de pares de discos, uno de zinc y otro de plata, separando cada par por una piel o un disco de papel. Estos discos absorbentes que separaban los metales fueron empapados con una solución (agua salada o vinagre). Este descubrimiento aclaró que, en efecto, para almacenar energía se necesitaban dos tipos de metal y productos químicos para producir chispas, tal como lo venía sosteniendo el italiano Luigi Galvani (1737-1798), quien al realizar la disección de una rana cerca de una máquina generadora observó que se había producido una chispa entre la rana y la máquina, lo que le hizo pensar que había descubierto una fuente de electricidad en los animales.

Las bases para la invención del telégrafo

El descubrimiento de la electricidad abrió múltiples caminos para obtener inventos más avanzados como el telégrafo, los cuales fueron transitados gracias a la perseverancia de grandes hombres de ciencia. Entre los experimentos más importantes que condujeron a su invención, se encuentran el del físico danés Hans Ch. Oersted (1777-1851), quien descubrió la relación entre la electricidad y el magnetismo, cuando todavía se creía que eran dos fenómenos distintos. Estableció por primera vez que la corriente eléctrica no circula sola por un alambre sino que va acompañada de un invisible campo de fuerzas magnéticas. En 1819 cuando impartía una conferencia en la Universidad de Copenage, produjo una oscilación de la aguja al colocar un hilo conductor de corriente eléctrica junto a una sencilla brújula marina. Esto ni siquiera llamó la atención del auditorio; después en su laboratorio, repitió más experimentos obteniendo el mismo resultado. Este fué el punto de partida para que, en 1831, el inglés Michael Faraday (1791-1867) estableciera la inducción electromagnética y demostrara que el movimiento de un imán (inventado por Sturgeon en 1823 y perfeccionado por Joseph Henry (1797-1878) en 1831) podía inducir el flujo de corriente eléctrica en un conductor próximo a dicho imán.

De esta forma, la producción de electricidad artificial y su conducción apoyada en los principios del magnetismo, establecieron las bases para la transmisión de mensajes a través de señales eléctricas.

La telegrafía

A lo largo de la historia el hombre ha utilizado banderolas, columnas de humo, reflejos ópticos y otros medios para la comunicación marítima y terrestre. Antes de que se usara la electricidad llegaron a construirse extensas redes no eléctricas. Una de ellas fue la que unía a París y Lille en Francia, con 5 mil kilómetros de recorrido y 534 estaciones. Era una red telegráfica basada en principios de la óptica, consistente en una serie de mástiles elevados, provistos en su extremo superior de brazos de madera movibles, y cuyas posiciones, visibles desde los mástiles vecinos, podían combinarse formando ángulos variados entre sí para representar todas las letras del alfabeto.

Los descubrimientos sobre la electricidad fueron el acicate para perfeccionar redes como ésta que habían proliferado en ciudades de Inglaterra, Alemania, Italia y Estados Unidos.

Las primeras referencias sobre la posibilidad de transmitir mensajes por medio de la corriente eléctrica alámbrica se encuentran en una detallada carta firmada sólo con las iniciales C.M., aparecida en 1753 en uno de los números de la Scots Magazine de Scotland, Inglaterra. En ella se proponía el empleo de 26 cables separados, cada uno de los cuales correspondería a una letra del alfabeto, con lo que se podrían transmitir mensajes letra a letra.

Experimentos similares con uso de cables se emprendieron en distintas partes del mundo. En 1754 Georges L. Lesage (1724-1803) puso a prueba en Ginebra un sistema compuesto de 24 hilos aislados, donde cada hilo representaba una letra del alfabeto y terminaba en la estación receptora, logrando enviar mensajes, aunque con enormes dificultades. En 1795 el médico barcelonés Francisco Salvá teorizó sobre una línea telegráfica de un solo hilo que podría ser aislado y tendido a través del océano donde el agua podría actuar como hilo conductor de retorno. El mismo Salvá ideó un telégrafo eléctrico con hilos conductores y logró transmitir despachos mediante descargas de un condensador. En 1828 el estadounidense Harrison G. Dyar construyó y operó una línea telegráfica por donde transmitió a trece kilómetros de distancia los resultados de una carrera de caballos en Long Island, con un único hilo. También se reconoce a los alemanes Carl Gauss (1777-1855) y Wilhelm Weber (1804-1891) como los creadores, en 1833, del primer sistema telegráfico electromagnético viable. Utilizando un imán, bobina y un manipulador se estuvieron enviando por años mensajes codificados a través de un circuito de dos hilos desde sus laboratorios ubicados en diferentes lugares en la ciudad de Gottingen, a una distancia de milla y media

En Inglaterra William F. Cooke (1806-1879) y Charles Wheatstone (1802-1875) desarrollaron un sistema telegráfico que se componía por un tablero con cinco llaves, una para cada una de las cinco agujas del telégrafo. Cada llave podía atraer corriente a un circuito y de ese modo provocar que la aguja correspondiente girara y pusiera una letra del alfabeto. Cooke y Wheatstone formaron un asociación legal y en junio de 1837 recibieron una patente para su telégrafo, que se convertiría en el más grande medio de comunicación de larga distancia de Inglaterra, muchos años antes de que Morse lo hiciera en Estados unidos.

En el mismo año de 1837 el físico y artista norteamericano Samuel Morse (1791-1872) inventó un telégrafo eléctrico y un código de signos o alfabeto convencional en el que las letras están representadas por combinaciones de rayas y puntos y que por emisiones alternadas de una corriente eléctrica se grababan en el extremo opuesto de un conductor metálico. Con ello, el envío de mensajes se hizo sistemático, fluído y al alcance del público.

Gracias a una asignación de 30 mil dólares hecha por el Congreso de su país, Morse estableció en 1844 la primera línea telegráfica experimental de 60 kilómetros entre Washington, D.C. y Baltimore, Maryland, en Estados Unidos; a través de esa línea se envió el famoso texto del telegrama alusivo a la grandiosidad del invento, que decía "[[exclamdown]]Qué maravilla ha creado Dios!"

Las redes telegráficas experimentaron un rápido crecimiento, incluso mayor que el del ferrocarril. En Estados Unidos por ejemplo, para 1853 se habían tendido poco más de 37 mil kilómetros de líneas telegráficas; en 1860 eran casi 81 mil y al año siguiente ya comunicaban al país de costa a costa con una red que enlazaba a Nueva York con San Francisco.

El sistema original de telegrafía manual, requería que la persona que realizaba la transmisión conociera el Código Morse, leyera el mensaje a enviar y accionara el manipulador telegráfico para convertir cada letra en un grupo codificado de pulsaciones largas y cortas. El operador-receptor debía escuchar los grupos de códigos para traducirlas a letras y descifrar el mensaje.

Cuando en 1880 el servicio telegráfico se generalizó en algunas ciudades de Estados Unidos, Francia, Inglaterra, Alemania y muchos países más, se convirtió en el medio de comunicación metropolitano más común; asimismo, con la puesta en operación de los sistemas telegráficos de distrito terminó el aislamiento bajo el que habían operado las estaciones de policía y los cuerpos de bomberos. Para 1875, en Estados Unidos ya se arrendaban líneas a la Prensa Asociada (Associated Press AP) quien prestaba servicios en Nueva York, Filadelfia, Baltimore y Washington. Los periodistas ya no tuvieron que depender exclusivamente de sus colegas establecidos en lugares distantes para estar al tanto de los acontecimientos más relevantes de la época. El telégrafo no solo unió a ese país, sino que aceleró la expansión económica: revolucionó la recolección de noticias, proveyó de información adelantada sobre condiciones del clima a los vapores y ferrocarriles y modificó los patrones de los negocios y las finanzas.

No sólo en Estados Unidos la telegrafía se extendió rápidamente. Ciudades grandes y pequeñas en todo el mundo recibieron casi al mismo tiempo los beneficios del novedoso medio de comunicación. En Canadá en 1847 ya funcionaban dos compañías organizadas por particulares, hombres de negocios y comerciantes. La Montreal Telegraph Company, que dominó por décadas, en su primer año llegó a tener 12 oficinas para una sola línea que unía Trois Rivieres y Toronto, en el Este canadiense.[9] En México, la primera línea telegráfica entró en funcionamiento el 5 de noviembre de 1851,[10] comunicaba la ciudad de México con el poblado de Nopalucan, Puebla. Esta línea, por disposiciones oficiales se extendió hasta Veracruz en 1852. Al siguiente año se terminó otra línea que comunicó a la ciudad de México con Guadalajara, pasando por León, Guanajuato. En 1854 las líneas tendidas cubrían una distancia de 608 kilómetros, atendidas por 6 oficinas en las ciudades de México, Orizaba, Jalapa, Veracruz, Guanajuato y León. Año tras año empezaron a cubrirse los más importantes puntos de la República Mexicana hacia el noreste y noroeste, llegando a establecerse el primer contacto con la frontera de Estados Unidos en 1873.

La generalización del telégrafo como medio idóneo para las comunicaciones a grandes distancias provocó que ya no sólo por motivos personales se continuaran haciendo investigaciones y experimentos, sino porque este se había convertido en un próspero negocio explotado por inventores y empresas comerciales.

Por ello, el telégrafo Morse permanentemente experimentaba varios perfeccionamientos. Primero se emplearon sistemas para transmisión simultánea de dos telegramas por un mismo hilo (equivalentes a 20-25 palabras por minuto).

Entre 1924-1928, con la introducción del teletipo o teleimpresor, la telegrafía manual empezó a reemplazarse por la de impresión (que operaba 500 palabras por minuto), haciéndola más eficiente, barata y de fácil manejo. En el teleimpresor las combinaciones de impulsos eléctricos, líneas y puntos, se traducían automáticamente a la llegada en letras alfabéticas que eran impresas en papel. Este se compone de una pareja de máquinas de escribir colocadas a distancia: cuando se escribe un mensaje en una de las máquinas, su par lo recibe escribiéndolo en hojas de papel, y viceversa. Es el equivalente a mecanografiar a distancia mediante interruptores de circuitos.

El teleimpresor se constituiría en uno de los implementos clave para la modernización de la telegrafía, que en la actualidad trabaja con una velocidad de cinco mil a seis mil palabras por segundo, contra 75 palabras por minuto del de 1930. El teleimpresor ha sido prácticamente suplantado por el fax, que funciona a través de líneas telefónicas, pero que a su vez está siendo reemplazado por enlaces de computadoras. Equivale también al correo electrónico actual, que funciona vía líneas telefónicas enlazando equipos de computación. Con la introducción de las redes telex (teletypewriter exchange), el sistema telegráfico alcanzó una eficiencia sin precedentes, se hizo accesible a las empresas y oficinas públicas, quienes ya no tuvieron que acudir a las oficinas telegráficas para enviar sus numerosos mensajes escritos.

Adicionalmente se han introducido sistemas de telegrafía avanzados como la telegrafía múltiple, que es la transmisión simultánea de varias comunicaciones a través de un mismo hilo, o la telegrafía armónica que consiste en la realización de conversaciones telefónicas por un hilo con una banda de frecuencias comprendidas entre 300 y 3,400 Hz o períodos por segundo, mientras que la transmisión de un mensaje telegráfico por el mismo hilo, sólo requiere una banda de 25 Hz

El descubrimiento de las ondas electromagnéticas.

Sustento para la transmisión inalámbrica

El descubrimiento que revolucionó la comunicación telegráfica y telefónica fue la aplicación de la radioelectricidad a estos dos tipos de telecomunicación a finales del siglo XIX, mismo que permitió la transmisión telegráfica inalámbrica, facilitó la comunicación entre largas distancias y ahorró la construcción de extensas redes de hierro galvanizado o cobre. Hasta el siglo referido, prevalecía aún la idea newtoniana de la luz como emisión de partículas de un foco emisor; cuando se superó ese paradigma de la física, aparecieron descubrimientos sucesivos que sentaron las bases para la telegrafía y la telefonía sin hilos.

El físico británico James C. Maxwell (1831-1879) formuló la teoría electromagnética de la luz señalando su carácter ondulatorio, es decir su transmisión a través de ondas invisibles para el ojo humano. Estableció que los campos eléctrico y magnético, actuando juntos, producían una nuevo tipo de energía llamada radiación. En 1873 publicó el Tratado sobre electricidad y magnetismo, que se reconoce ahora como el origen de la actual teoría electromagnética. Posteriormente, el alemán Heinrich R. Hertz (1857-1894), entre 1885-1889, comprobó por la vía experimental la existencia de las ondas electromagnéticas[12]. Con el descubrimiento de estas ondas que viajan en el espacio, se ideó la forma de producirlas y recibirlas a través de aparatos que aprovecharan los fenómenos eléctricos que la física había descubierto.

Diez años antes de que Hertz comprobara la existencia de las ondas electromagnéticas, el italiano Guillermo Marconi (1874-1937) consiguió el 2 de junio de 1891 una patente para la telegrafía sin hilos. Marconi se había concentrado en la idea de utilizar dichas ondas para transmitir señales a través del espacio. Construyó un aparato con el objeto de conectar al transmisor y receptor con una antena y a la tierra. En junio de 1896 transmitió el primer mensaje radiotelegráfico hallándose el receptor a 250 metros del emisor y separados por muros. Para 1897 logró comunicaciones más lejanas cuando transmitió un telegrama a una distancia de nueve millas entre las ciudades de Lavernock y Brean Down, en Italia. Con ello, las ondas hertzianas posibilitaron la comunicación inalámbrica entre los hombres.

La comunicación inalámbrica maravilló al mundo. Muy pronto todos los barcos de guerra fueron provistos de aparatos de radiotelegrafía, empezaron a recibir noticias de lo que ocurría en el mundo, y en 1904 los grandes trasatlánticos ya imprimían diariamente periódicos a bordo. En 1907 comenzó a funcionar un servicio transocéanico para radiogramas. Pero esto nada más era telegrafía. Aún no existía la radiotelefonía tal como se conoce hoy, es decir, no había en las casas aparatos pequeños por los que se pudiera escuchar música.

Lo que posibilitó la introducción de radiotelefonía en los hogares fue la transición, dentro del campo de las ondas electromagnéticas, del telégrafo al teléfono. El primer paso para lograr que la radiotelegrafía se convirtiera en radiotelefonía fue el invento de la válvula, el bulbo y el micrófono. El micrófono se necesitaba para poner los sonidos "en el aire", y el bulbo para ponerlos y sacarlos. El micrófono modula las ondas radiotelefónicas enviadas, mientras que el tubo rectifica y aumenta la débil corriente radiotelefónica recibida, hasta lograr reproducir los sonidos en un auricular o un altoparlante. Con estos adelantos, para 1908 fue posible sostener una conversación radiotelefónica entre Roma y Sicilia, a una distancia de 500 kilómetros, aproximadamente.

La utilidad de la telegrafía inalámbrica quedó demostrada tempranamente en muy dramáticas circunstancias, con ocasión del naufragio del vapor Titanic, que durante su viaje inaugural chocó el 15 de abril de 1912 contra un iceberg cuando navegaba rumbo a Nueva York. Sólo 707 de 2,224 personas a bordo se salvaron gracias a las llamadas de auxilio enviadas por telegrafía sin hilos a otros barcos. Al año siguiente también las llamadas de socorro radiadas desde el buque italiano Volturno, que se incendió en pleno océano Atlántico, hicieron acudir a diez barcos en su auxilio y pudieron rescatar a 521 personas.

Los científicos que contribuyeron a hacer realidad este medio de telecomunicación, quizá nunca pensaron que sus descubrimientos serían la base para el despegue y desarrollo posterior de grandes industrias lucrativas como la telefonía sin hilos, la navegación marítima, la transportación aérea, la comunicación por satélite y la conquista espacial.

La capacidad para mover información a la velocidad de la luz mediante el telégrafo trajo consigo la expansión e integración de los mercados, por la reducción de los costos de transacción y el fácil movimiento de capitales. También hizo posible el desarrollo de instituciones modernas como la bolsa de valores, las aseguradoras y servicios de información

En Estados Unidos así como en otros países las líneas telegráficas se tendieron sobre las vías de los ferrocarriles, lo que trajo beneficios para ambas empresas. La administración y operación de los ferrocarriles se volvió más eficaz por la provisión de despachos eléctricos con información sobre la localización de cada tren o del estado de sus vías. Los ferrocarriles por su parte dieron a las compañías telegráficas un derecho exclusivo de uso de sus rutas.

Al mismo tiempo que la telegrafía se instauraba como medio eficiente de comunicación, surgieron otros medios más avanzados como el teléfono, la radiotelegrafía, la radiotelefonía y la televisión, para lo cual concurrieron diversas relaciones de carácter técnico, organizativo y económico al grado que los sistemas telegráficos y telefónicos empezaron pronto a compartir redes; e incluso desde la década de los cuarenta de este siglo las compañías telefónicas y telegráficas empezaron a emplear equipos de red similares a gran escala. Asimismo, con la radiocomunicación, la telegrafía sin hilos se convirtió en el medio por excelencia para las comunicaciones internacionales y prácticamente confinó a las redes de cable a uso local.

La telefonía

La telefonía es el medio de telecomunicación que más impacto ha tenido sobre la humanidad. Es un sistema que se utiliza para la transmisión de la voz humana, sonidos o imágenes escritas y en movimiento a distancia, por acción de corrientes eléctricas u ondas electromagnéticas.

La búsqueda de nuevas tecnologías de comunicación durante más de un siglo, se ha concentrado fundamentalmente en perfeccionar a este medio de telecomunicación por excelencia. Su disponibilidad a costos relativamente bajos y fácil manipulación, lo convirtieron no sólo en un implemento auxiliar de la vida cotidiana sino en un medio indispensable para la economía, la política y la cultura. La red telefónica mundial se ha hecho tan básica como la infraestructura de carreteras terrestres e incluso, por la rapidez y facilidad con que se pueden tender las primeras, supera en extensión y cobertura a las segundas. La red telefónica mundial es enorme, con aproximadamente 700 millones de kilómetros permite comunicación prácticamente a cualesquier lugar de la tierra por medio de microondas, cables de cobre, cables coaxiales, enlaces satelitales y fibras ópticas.

El invento del teléfono constituyó una carrera apasionante. A la par que se hacían experimentos para poner en práctica las transmisiones telegráficas y una vez que éstas se lograron, muchos científicos y aficionados a las comunicaciones intentaron enviar también la voz humana y no sólo puntos y líneas; el problema principal era transformar las ondas sonoras en señales eléctricas y viceversa.

Desde la década de 1820, el inglés Charles Wheatstone demostró que los sonidos musicales podrían retransmitirse a través de cables metálicos y de vidrio, pero nunca intentó conectar dos campos. En 1854 el empleado de la Oficina de Correos y Telégrafos de Francia, Charles Bourseul, expuso, al parecer por primera vez, en un extraordinario artículo publicado en las columnas de L'Illustration de París, los principios teóricos del teléfono electrónico y que a la fecha no han variado. Este artículo decía:

"Hablando delante de una membrana que establezca e interrumpa sucesivamente la corriente de una pila, y enviando a la línea la corriente suministrada por este transmisor, al ser recibida por un electroimán podría éste atraer y soltar una placa móvil. Es indudable que de esta suerte se llegará, en un porvenir más o menos próximo, a transmitir la palabra a distancia por medio de electricidad. Las sílabas -continúa- se reproducirán exactamente por la vibración de los medios interpuestos. Reproduciendo estas vibraciones se obtendrán también exactamente reproducidas las sílabas".

Como respuesta a sus ideas, Bourseul recibió la sugerencia de sus jefes de que se pusiera a hacer cosas más útiles. Poco tiempo pasó para que reconocieran su gravísima incredulidad.

Tres años más tarde, el italiano emigrado a Estados Unidos, Antonio Meucci (1808-1889), estudió su realización práctica y en 1857 fabricó el primer aparato telefónico, que por problemas prácticos no pudo registrar como patente. En 1861 el alemán Philipp Reiss (1834-1874) construyó un aparato que solo transmitía la altura del sonido y no la intensidad ni el timbre, por lo que no transmitía la voz humana, cuestión en la que se centrarían los norteamericanos Alexander G. Bell (1847-1922) y Elisha Gray (1835-1901) con gran éxito.

Bell y Gray llevaron a cabo en Estados Unidos, entre 1872 y 1876, intensos experimentos para lograr las comunicaciones de voz; intentaron enviar simultáneamente muchos mensajes telegráficos sobre el mismo cable. El primero se acercó a la solución del problema a través de la acústica y, el segundo, por medio de la electricidad. Asimismo, construyeron aparatos similares sólo que el de Gray no tenía transmisor y el de Bell sí. Aunque posteriormente Gray logró establecer los principios del transmisor, Bell había completado las especificaciones y las notarió en la ciudad de Boston el 20 de enero de 1876. Ambos solicitaron la patente el 14 de febrero de ese mismo año pero Bell lo hizo antes con un par de horas de diferencia. La primacía fue concedida a Bell el mes siguiente. Sin embargo, la controversia sobre si Bell conocía el principio de la resistencia variable desde hacia años (como él dijo) o si obtuvo la idea de los documentos de Gray, nunca será completamente resuelta y con ello tampoco el pleito judicial sobre una de las patentes más cotizadas de la historia.

Alentado por sus logros, Bell avanzó en el perfeccionamiento de la transmisión de voz, aumentando la densidad a la pila eléctrica con la que opera. Cuando se encontraba trabajando en su taller en marzo de 1876, al agregarle ácido sulfúrico a la pila, parte del líquido se le derramó sobre la pierna e inmediatamente solicitó ayuda a su socio Watson que se encontraba a 30 metros de distancia de él. Watson oyó claramente a través del teléfono las palabras de Bell, "Señor Watson venga aquí, lo necesito". Fue ahí, en su taller de Boston, donde empezaron a funcionar los primeros aparatos telefónicos eléctricos.

Uno de los aspectos más interesante de la invención del teléfono Bell, fue que a diferencia del telégrafo, no requirió un operador que enviara y otro que recibiera los mensajes, ni necesitó del conocimiento del código Morse o la habilidad de escribir en teleimpresora. Simplemente requirió hablar y oir.

Los avances tecnológicos a partir del teléfono Bell no se hicieron esperar. En 1878 Tomas Alva Edison (1847-1931) lo perfeccionó adaptándole un micrófono de carbón que aumentó su potencia, y lo convirtió en el detonante para la expansión de las llamadas de larga distancia. En ese mismo año se instalaron centrales teléfonicas para conectar entre sí a 1,350 aparatos que funcionaban en diferentes casas particulares en Estados Unidos. Para 1887, a sólo una década de su introducción comercial ya había 235 kilómetros de cables tendidos con 444 centrales conectando 150 mil suscriptores. Y lo que parecía ser imposible para la comunicación a distancia sucedió en 1892, cuando se enlazaron vía aérea las ciudades de Nueva York y Chicago, a 1,650 kilómetros de distancia.

Desde los primeros días de funcionamiento el teléfono tuvo el problema de la pérdida de intensidad de la señal a medida que la distancia entre el transmisor y el receptor aumentaba. Ello llevó a plantear serias dudas sobre la posibilidad de la comunicación a largas distancias sobre circuitos telefónicos. La invención del tubo de vacío en 1906 por el estadounidense Lee DeForest (1873-1961) resolvió ese problema mediante la amplificación de la señal e hizo posible la colocación de repetidores a lo largo de las líneas de transmisión para amplificar las señales. El tubo de vacío llevaría de lleno a la era de las telecomunicaciones. Sus efectos se extendieron más allá de la telefonía, abarcaron a la radio, la televisión, la computación y llevaron al desarrollo de la electrónica como una de las más grandes industrias de mitad del siglo XX.

La telefonía se convirtió en una próspera industria mundial con una demanda impresionante del servicio

En los Estados Unidos se diseminó más rápidamente, pues para 1900 ya contaba con 675 mil aparatos telefónicos. En 1925 había más de 26 millones de aparatos en el mundo, correspondiendo a Estados Unidos 17 millones y alrededor de 700 mil a Europa. En México, en ese mismo año, funcionaban poco más de 50 mil aparatos, mientras que en Argentina había 173 mil.

En las ciudades más grandes pronto proliferaron las redes telefónicas metálicas que, inicialmente eran aéreas, pero al advertirse los riesgos físicos que representaban, empezaron a colocarse en el subsuelo, solo que los alambres se forraron con cables de plomo para que pudieran ser tendidos bajo tierra, que son las que hoy predominan y solamente en ciudades pequeñas se instalan tendidos aéreos.

La rápida popularidad del teléfono provocó serias dificultades en las conexiones entre abonados. Las líneas se saturaban, pues cada aparato estaba conectado por una línea de dos hilos con una central en donde todas las líneas se juntaban en un conmutador atendido por operadoras (ese mismo sistema todavía se utiliza en poblaciones pequeñas). Esto ocasionó enormes marañas de cableados detras de los conmutadores y hacía cada vez más impráctico el servicio.

Las corrientes portadoras

A partir de 1919 se implementó la interconexión automática que sustituyó en las centrales a los empleados que hacían manualmente los enlaces. Esto es, se encontró la manera de sostener varias conversaciones simultáneas sobre una misma línea gracias a las corrientes portadoras. El equipo que hacía la conexión consistía en bancos relevadores y switches montados en una fila de bastidores que ocupaban pisos y edificios enteros.

Mediante procedimientos técnicos es posible modular las variaciones de las corrientes de frecuencias bajas (o audiofrecuencias que se utilizan en la tansmisión de voz humana en una banda que va desde 300 a 3,400 ciclos por segundo) sobre oscilaciones de frecuencias elevadas. Este procedimiento fue adoptado por la telefonía múltiple donde se elige para cada comunicación una frecuencia portadora distinta. Así, varias comunicaciones pueden viajar juntas por el mismo circuito, ocupando diferentes bandas, dentro de la gama de frecuencias elevadas. Cuando llega la comunicación al extremo de una línea, se deja pasar solamente una banda de frecuencias por un filtro, es decir, se separan las comunicaciones que luego se demodulan para que las corrientes de frecuencias audibles lleguen al receptor.

Obviamente, estas transmisiones no se pudieron hacer por los cables sencillos que se venían utilizando.

El cable coaxial

Para los treinta, se creó el cable coaxial, formado por un conductor centrado y aislado dentro de otro cilíndrico que protege al primero y evita la pérdida de energía por radiación, a la vez que disminuye las perturbaciones provocadas por energías adyacentes o por otros circuitos. Un par de estos hilos forma una línea coaxial que cabe en una misma instalación, pues cada uno es apenas más grueso que un lápiz. Con ellos se empezaron a transmitir simultáneamente 1,860 conversaciones telefónicas y tenían capacidad adicional para hacer transmisiones para radio y televisión.

Con el tiempo el manejo simultáneo de llamadas progresaría para lograr mayor capacidad. Con el equipo electromecánico de sistema de panel se interconectaron 10 mil líneas telefónicas, mientras que con el equipo crossbar se alcanzó una capacidad de 30 mil líneas telefónicas. Las conexiones de los circuitos en este tipo de equipo son establecidas con muy pocos movimientos mecánicos resultando en menor desgaste y mantenimiento. A su vez este equipo es paulatinamente es reemplazado por sistemas electrónicos que establecen conexiones a grandes velocidades y con capacidad de más de 100 mil líneas Estos han evolucionado hacia la transmisión digital que veremos en el siguiente capítulo.

Los cables submarinos

La transmisión a larga distancia intercontinental a través del agua, también fue motivo de preocupación de científicos y emprendedores hombres de negocios desde principios del siglo XIX. Los experimentos que implicaban enlaces por agua se realizaron inicialmente a través de ríos y mares.

En 1811 el científico alemán Samuel T. von Sommerring (1755-1830) desarrolló el primer cable submarino aislado y envió la primer señal telegráfica a través del Río Isar, en Munich. Morse activó otro conductor en el puerto de Nueva York en 1842 y E. Cornell tendió en 1845 el primer cable durable también a través del Río Hudson, entre Nueva York y el Puerto Lee. Otros cables se tendieron a través del río Mississippi, en los mares de Irlanda, el Mar del Norte, etcétera.

Las dificultades para tender cables por agua, multiplicaba las dificultades por tener que soportar los rigores del mar, como perturbaciones de corrientes marítimas, la presión marítima, mordeduras de tiburones, y otras que en los tendidos por aire o por debajo de la tierra eran ajenos.

Por ello, los intentos por hacer cruzar el Atlántico con cables en 1857, 1858 y 1865 no tuvieron éxito y solo trabajaban unos cuantos días. En 1858 el Atlántico fue unido entre Irlanda y Newfoundland, Canadá, pero el sistema de aislamiento del cable falló y tuvo que ser abandonado después de funcionar únicamente 27 días. Después de 1866 fueron tendidos una serie de cables trasatlánticos por británicos, franceses y norteamericanos que trabajaron parcialmente. Para inicios de la decada de 1920, los cables más rápidos, con amplificadores en tubos de vacío, trabajaban en impresoras multiplex de ocho canales en vez de uno. Para los cuarenta había 20 cables trasatlánticos que ya no funcionaron en los años cincuenta.

Para 1950 dos grandes innovaciones favorecieron de manera importante en tendido de cables para conducción de telefonía: la invención del cable coaxial y del amplificador de tubo de vacío que pudo resistir la presión del agua a 5 mil metros y con un tiempo de duración de hasta 20 años. En 1950 se probó un cable coaxial con repetidores sumergidos entre Miami, Estados Unidos y La Habana, Cuba. A principios de 1956 inició operaciones el primer cable submarino trasatlántico de cable coaxial con capacidad para 36 circuitos telefónicos y enlazaba Scotland, Inglaterra y Newfoundland. En ese mismo año se tendió otra línea con 16 repetidores en dos sentidos en una linea que iba desde Newfoundland a Nueva Escocia y era capaz de transportar 60 conversaciones telefónicas al mismo tiempo. Para 1976, con la utilización del sistema de llamadas a intervalos, el TAT 6 hizo posible mandar cuatro mil llamadas telefónicas simultáneamente. Para 1980 una variante del cable coaxial permitió transportar una capacidad superior a los 4 mil circuitos de voz.

A pesar de que los cables submarinos han sido declarados dos veces "muertos" -primero con la introducción de la radio y luego con la introducción de los satélites para comunicaciones en los setenta-, en las últimas décadas se ha observado mayor interes en diversas compañías por su explotación

Ahora, los modernos cables submarinos cruzan no nada más el Atlántico, sino el Pacífico, las costas y un sin fin de islas en los continentes.

Los cables submarinos ofrecen algunas ventajas respecto de las comunicaciones por satélite: Tienen una vida de más de 25 años mientras que la de los satélites es de 10; funcionan bién independientemente del clima y disturbios magnéticos, mientras que los receptores y transmisores para comunicaciones vía satélite son afectados por el clima, lluvias, tormentas, etcétera; su tecnología admite reparaciones y mantenimiento, mientras que en los satélites normalmente es muy complicado.

La innovación más importante en la última década en los cables submarinos es la introducción de fibra óptica. Las ondas ópticas conducidas por tales cables dan la vuelta a la tierra en fracciones de segundos. El primer cable intercontinental, el TAT 8 transporta más de 32 mil conversaciones al mismo tiempo aparte de una masa de datos, que puede ser enviada a intervalos. Sus altos costos de inversión comparado con el cable coaxial (que se introdujo en los cincuenta y que ahora son tendidos donde la frecuencia de su uso o crecimiento es bajo), son compensados con el incremento de la capacidad. Los cables de fibra óptica normalmente pueden ser operados sin amplificadores y debido a su diminito diámetro de 25 a 30 mm son de peso liviano, más elásticos y fáciles de enterrarse. Aunque su pequeñez los hace más sensibles a las mordidas de los tiburones, son protegidos por cubiertas especiales para resistir esos peligros.

Además de los países industrializados como Inglaterra, Canadá, Rusia, Estados Unidos y Francia, el tendido de cables submarinos es realizado por otros como Singapur y México, mediante su participación en proyectos comunes de distintas empresas.

Desde agosto de 1993, Teléfonos de México es socio mayoritario, del del sistema de cable submarino Columbus II. Este cable es de fibra óptica y se programó para entrar en servicio en diciembre de 1994, con capacidad para 23 mil canales telefónicos y para transmitir 90 mil conferencias simultáneamente. Sus amarres se encuentran en Cancún, México; West Palm Beach, Estados Unidos; Saint Thomas e Islas Vírgenes, EE.UU.; Isla Gran Canaria, España; Isla Madeira, Portugal; y Palermo, Italia. En el proyecto participaron 58 compañías de telecomunicaciones de 41 países, entre las que se encuentran Telefónica de España, AT&T, Italcable y Companhia Portuguesa Radio Marconi

Las ventajas que brindan las transmisiones por cables submarinos ha llevado a una intensa competencia entre empresas constructoras y operadoras de los mismos, así como con las de comunicaciones por satélite. La compañía estadounidense American Telephone and Telegraph (AT&T), compite con International Telecommunications Satellite (INTELSAT) por la preeminencia en las comunicaciones intercontinentales. AT&T ha intensificado la construcción de cables submarinos: cinco por todo el mundo. En octubre de 1990 empezó a construir junto con la empresa japonesa Kokusai Denshim Denmwa un cable transpacífico, con capacidad para proveer hasta 600 mil líneas telefónicas y entrará en operación en 1996

A mediados de 1992 puso en operación su más reciente sistema de comunicación submarina intercontinental denominado TAT-10, que utiliza cables de fibra óptica, conduce 80 mil conversaciones telefónicas simultáneas y enlaza directamente a los Estados Unidos, Alemania y los Países Bajos

De ninguna manera los cables submarinos han sido desplazados por otras tecnologías y por el contrario se han consolidado como una importante opción de comunicación para largas distancias. En la actualidad, la competencia entre diferentes sistemas de comunicación es común, y frente a los satélites, por ejemplo, tienen algunas ventajas por los menores riesgos durante la instalación y el mayor tiempo de duración de las redes.

por: will.telecom@hotmail.com


SATELITES

Publicado el 1 de Marzo, 2006, 15:43. en General.
Referencias (0)

FUTURO DE LA TELECOMUNICACIONES

Antes de entrar en materia, creemos que es necesario entender una serie de hechos básicos sobre tecnología espacial para luego discutir en detalle los sistemas de navegación por satélite.

Un satélite es transportado a su órbita abordo de un cohete capaz de alcanzar la velocidad suficiente requerida para no verse influenciado por el campo gravitatorio terrestre.

Una vez conseguido esto, es virtualmente posible conseguir cualquier plano o altitud de la órbita mediante la utilización de modernos cohetes. El plano de la órbita se denomina inclinación. Este parámetro se ilustra en la figura:
 

VELOCIDAD DE LA ÓRBITA:

Un satélite puede permanecer en su órbita sólo si su velocidad es lo suficientemente mayor como para vencer la gravedad y menor que la requerida para escapar de la gravedad. La velocidad del satélite es pues como un compromiso entre esos dos factores pero ha de ser absolutamente precisa para la altitud elegida.
 

V=K/(sqrt(r+a)) Km/s

donde:

V=a velocidad de la órbita en kilómetros por segundo.
a=altitud de la órbita sobre la superficie de la tierra, en Km.
r=el radio medio de la tierra, aproximadamente 6371Km.
K=630

Aunque la tierra no es perfecta y su radio puede variar, vamos a tomar que posee un valor de 6371Km. La velocidad de un satélite con altitud de 200 Km necesitará una V=177Km/s.

La velocidad para un satélite con una altitud de 1075km será de V=7.3km/s (satélite TRANSIT).
 

PERIODO DE LA ÓRBITA:

El periodo que posee un satélite viene dado por la siguiente fórmula:
 

P=K(r+a/r)3/2 minutos

donde
 

P=periodo de una órbita en minutos.
a=altitud de la órbita sobre la superficie terrestre.
r=radio medio de la tierra.
K=84.49.
 

El periodo para un satélite cuya altitud es de 200 Km es: P=88.45 minutos.

Comunicación por Satélites 

INTRODUCCION  

A principios de 1960, la American Telephone and Telegraph Company (AT&T) publicó estudios, indicando que unos cuantos satélites poderosos, de diseño avanzado, podian soportar mas tráfico que toda la red AT&T de larga distancia. El costo de estos satélites fue estimado en solo una fracción del costo de las facilidades de microondas terrestres equivalentes. Desafortunadamente, debido a que AT&T era un proveedor de servicios, los reglamentos del gobierno le impedían desarrollar los sistemas de satélites. Corporaciones más pequeñas y menos lucrativas pudieron desarrollar los sistemas de satélites y AT&T continuó invirtiendo billones de dólares cada año en los sistemas de microondas terrestres convencionales. Debido a esto los desarrollos iniciales en la tecnología de satélites tardaron en surgir. 

A través de los años, los precios de la mayoría de los bienes y servicios han aumentado sustancialmente; sin embargo, los servicios de comunicación, por satélite, se han vuelto mas accesibles cada año. En la mayoría de los casos, los sistemas de satélites ofrecen mas flexibilidad que los cables submarinos, cables subterráneos escondidos, radio de microondas en línea de vista, radio de dispersión troposférica, o sistemas de fibra óptica. 

Esencialmente, un satélite es un repetidor de radio en el cielo (transponder). Un sistema de satélite consiste de un transponder, una estación basada en tierra, para controlar el funcionamiento y una red de usuario, de las estaciones terrestres, que proporciona las facilidades para transmisión y recepción de tráfico de comunicaciones, a través del sistema de satélite. Las transmisiones de satélites se catalogan como bus o carga útil. La de bus incluye mecanismos de control que apoyan la operación de carga útil. La de carga útil es la información del usuario que será transportada a través del sistema. Aunque en los últimos años los nuevos servicios de datos y radioemisión de televisión son mas y más demandados, la transmisión de las señales de teléfono de voz convencional (en forma analógica o digital).  

SATELITES ORBITALES 

Los satélites mencionados, hasta el momento, son llamados satélites orbitales o no síncronos. Los satélites no síncronos giran alrededor de la Tierra en un patrón elíptico o circular de baja altitud. Si el satélite esta girando en la misma dirección de la rotación de la Tierra y a una velocidad angular superior que la de la Tierra, la órbita se llama órbita progrado. Si el satélite esta girando en la dirección opuesta a la rotación de la Tierra o en la misma dirección, pero a una velocidad angular menor a la de la Tierra, la órbita se llama órbita retrograda. Consecuentemente, los satélites no síncronos están alejándose continuamente o cayendo a Tierra, y no permanecen estacionarios en relación a ningún punto particular de la Tierra. Por lo tanto los satélites no síncronos se tienen que usar cuando están disponibles, lo cual puede ser un corto periodo de tiempo, como 15 minutos por órbita. Otra desventaja de los satélites orbitales es la necesidad de usar un equipo costoso y complicado para rastreo en las estaciones terrestres. Cada estación terrestre debe localizar el satélite conforme esta disponible en cada órbita, y después unir su antena al satélite y localizarlo cuando pasa por arriba. Una gran ventaja de los satélites orbitales es que los motores de propulsión no se requieren a bordo de los satélites para mantenerlos en sus órbitas respectivas. 

SATELITES GEOESTACIONARIOS 

Los satélites geoestacionarios o geosíncronos son satélites que giran en un patrón circular, con una velocidad angular igual a la de la Tierra. Consecuentemente permanecen en una posición fija con respecto a un punto específico en la Tierra. Una ventaja obvia es que están disponibles para todas las estaciones de la Tierra, dentro de su sombra, 100% de las veces. La sombra de un satélite incluye todas las estaciones de la Tierra que tienen un camino visible a él y están dentro del patrón de radiación de las antenas del satélite. Una desventaja obvia es que a bordo, se requieren de dispositivos de propulsión sofisticados y pesados para mantenerlos fijos en una órbita. El tiempo de órbita de un satélite geosíncrono es de 24 h. igual que la Tierra. 

CLASIFICACIONES ORBITALES, ESPACIAMIENTO Y ASIGNACIONES DE FRECUENCIA  

Hay dos clasificaciones principales para los satélites de comunicaciones: hiladores (spinners) y satélites estabilizadores de tres ejes. Los satélites espinar, utilizan el movimiento angular de su cuerpo giratorio para proporcionar una estabilidad de giro. Con un estabilizador de tres ejes, el cuerpo permanece fijo en relación a la superficie de la Tierra, mientras que el subsistema interno proporciona una estabilización de giro. 

Los satélites geosíncronos deben compartir espacio y espectro de frecuencia limitados, dentro de un arco específico, en una órbita geoestacionaria, aproximadamente a 22,300 millas, arriba del Ecuador. La posición en la ranura depende de la banda de frecuencia de comunicación utilizada. Los satélites trabajando, casi o en la misma frecuencia, deben estar lo suficientemente separados en el espacio para evitar interferir uno con otro. Hay un límite realista del número de estructuras satelitales que pueden estar estacionadas, en un área específica en el espacio. La separación espacial requerida depende de las siguientes variables: 

  • Ancho del haz y radiación del lóbulo lateral de la estación terrena y antenas del satélite.

  • Frecuencia de la portadora de RF.

  • Técnica de codificación o de modulación usada.

  • Límites aceptables de interferencia.

  • Potencia de la portadora de transmisión.

Generalmente, se requieren de 3 a 6º de separación espacial dependiendo de las variables establecidas anteriormente. 

Las frecuencias de la portadora, más comunes, usadas para las comunicaciones por satélite, son las bandas 6/4 y 14/12 GHz. El primer número es la frecuencia de subida (ascendente) (estación terrena a transponder) y el segundo numero es la frecuencia de bajada (descendente) (transponder a estación terrena). Diferentes frecuencias de subida y de bajada se usan para prevenir que ocurra repetición. Entre mas alta sea la frecuencia de la portadora, más pequeño es el diámetro requerido de la antena para una ganancia específica. La mayoría de los satélites domésticos utilizan la banda 6/4 GHz. Desafortunadamente, esta banda también se usa extensamente para los sistemas de microondas terrestres. Se debe tener cuidado cuando se diseña una red satelital para evitar interferncia de, o interferencia con enlaces de microondas establecidas. 

MODELOS DE ENLACE DEL SISTEMA SATELITAL 

Esencialmente, un sistema satelital consiste de tres secciones básicas: una subida, un transponder satelital y una bajada. 

Modelo de subida 
El principal componente dentro de la sección de subida satelital, es el transmisor de estación terrena. Un típico transmisor de la estación terrena consiste de un modulador de IF, un convertidor de microondas de IF a RF, un amplificador de alta potencia (HPA) y algún medio para limitar la banda del último espectro de salida (por ejemplo, un filtro pasa-bandas de salida). El modulador de IF se convierte la IF convierte las señales de banda base de entrada a una frecuencia intermedia modulada en FM, en PSK o en QAM. El convertidor (mezclador y filtro pasa-bandas) convierte la IF a una frecuencia de portadora de RF apropiada. El HPA proporciona una sensibilidad de entrada adecuada y potencia de salida para propagar la señal al transponder del satélite. Los HPA comúnmente usados son klystons y tubos de onda progresiva. 

Transponder 
Un típico transponder satelital consta de un dispositivo para limitar la banda de entrada (BPF), un amplificador de bajo ruido de entrada (LNA), un traslador de frecuencias, un amplificador de potencia de bajo nivel y un filtro pasa-bandas de salida. Este transponder es un repetidor de RF a RF. Otras configuraciones de transponder son los repetidores de IF, y de banda base, semejantes a los que se usan en los repetidores de microondas. 

Modelo de bajada 
Un receptor de estación terrena incluye un BPF de entrada, un LNA y un convertidor de RF a IF. Nuevamente, el BPF limita la potencia del ruido de entrada al LNA. El LNA es un dispositivo altamente sensible, con poco ruido, tal como un amplificador de diodo túnel o un amplificador paramétrico. El convertidor de RF a IF es una combinación de filtro mezclador /pasa-bandas que convierte la señal de RF recibida a una frecuencia de IF. 

Enlaces cruzados 
Ocasionalmente, hay aplicaciones en donde es necesario comunicarse entre satélites. Esto se realiza usando enlaces cruzados entre satélites o enlaces intersatelitales (ISL). Una desventaja de usar un ISL es que el transmisor y receptor son enviados ambos al espacio. Consecuentemente la potencia de salida del transmisor y la sensibilidad de entrada del receptor se limitan. 

4. Inmarsat y otros sistemas de satélites.

4.1. Introducción.

La primera serie de satélites usados por INMARSAT, comenzando en 1982, fue posible gracias a la intervención de varias fuentes como COMSAT (Programa MARISAT), ESA (Programa MARECS) e INTELSAT (Programa ISV-MCP).

MARISAT y MARECS fueron los precursores de los servicios de demostración y el MCP posibilitó comunicaciones marítimas mediante la incorporación de un módulo especial para esa función en la serie INTELSAT V-A (modificación de la serie V), dicho módulo era similar al ofrecido por MARISAT.


4.2. COSPAS-SARSAT.

4.2.1. Introducción.

Los satélites de INMARSAT III cuentan con un sistema SAR (Búsqueda y Rescate) a bordo, el sistema COSPAS-SARSAT es actualmente el máximo exponente en lo que a búsqueda y rescate vía satélite se refiere.

4.2.2. El sistema.

COSPAS-SARSAT es un sistema internacional de búsqueda y rescate consistente en una constelación de satélites con cobertura global dispuestos en órbita polar (entre 800 y 1000 Km de altitud) y en una red de estaciones terrestres que envían señales de alerta o informaciones de localización a las autoridades encargadas de las labores de rescate ya sea por tierra, mar o aire.

Nace de la unión SARSAT (Search And Rescue Satellite-Aided Tracking) y su homólogo soviético COSPAS (acrónimo ruso de Sistema Espacial para la Búsqueda de Buques en Peligro).

Este programa conjunto está esponsorado por Canadá (pionera en 1982), Francia, Estados Unidos y el propio COSPAS soviético.

4.2.3. Participantes.

Hay 28 países y organizaciones participantes en el funcionamiento del sistema, entre ellos están las 4 partes del acuerdo COSPAS-SARSAT (Canadá, Francia, Rusia y Estados Unidos), 14 proveedores de segmentos terrestres, 8 países usuarios y 2 organizaciones participantes, los países adicionales están en proceso de integración.

Las organizaciones son the International Maritime Organization (IMO), the International Civil Aviation Organization (ICAO), the International Telecommunication Union (ITU), the International Chamber of Shipping (ICS), the International Radio Maritime Committee (CIRM) and the International Federation of Air Line Pilots Associations (IFALPA).

4.2.4. Funcionamiento.

Actuando como repetidores de comunicaciones, los satélites COSPAS-SARSAT reciben señales de alerta emitidas por:

  • Radiobalizas marítimas de emergencia e indicadoras de posición (EPIRBs).

  • Transmisiones aéreas de localización de emergencia (ELTs).

  • Radiobalizas de localización personal (PLBs).

Los satélites retransmiten las señales de alerta a estaciones terrestres denominadas LUTs (Local User Terminal) donde se procesa y determina la localización geográfica del accidente, esta información se envía al Centro de Control de Misiones (MCC) que se encarga de transmitir la posición y otras informaciones pertinentes al Centro de Coordinación de Rescates más apropiados (RCC).

La velocidad y precisión de estas comunicaciones incrementa significativamente las posibilidades de supervivencia de las víctimas del accidente en cuestión.

Hay 14 MCCs operativos situados en 14 paises y 6 MCCs bajo test en 6 paises, respecto a las LUTs cabe destacar la existencia de 29 operativas distribuidas en 17 países y 4 bajo test en 4 países.

4.2.5. Los satélites.

La configuración del sistema comprende cuatro satélites, dos COSPAS y dos SARSAT.

Los satélites soviéticos están situados en órbita polar a 1000 Km. de altitud y están equipados con instrumental SAR (Búsqueda y Rescate) a 121.5 y 406 MHz.

Los Estados Unidos contribuyen con dos satélites meteorológicos NOAA (National Oceanic and Atmospheric Administration) situados a 850 Km. de altitud en órbita polar y equipados con instrumental SAR a 121.5 y 406 MHz apoyados por Canadá y Francia.

Cada satélite da una vuelta completa a la Tierra en 100 minutos aproximádamente a una velocidad de 7Km por segundo.

Los satélites obtienen imágenes del planeta barriendo zonas con un haz de 4000 Km de ancho.

4.2.6. Resultados.

Desde Septiembre de 1982 hasta Junio de 1995 el sistema COSPAS-SARSAT contribuyó al rescate de 5541 personas en 1800 sucesos SAR:

  • Accidentes aéreos: 1624 personas en 755 sucesos SAR.

  • Accidentes marítimos: 3633 personas en 922 sucesos SAR.

  • Accidentes terrestres: 284 personas en 123 sucesos SAR.

El sistema de 406 MHz fue utilizado en 500 de estos incidentes (2193 personas rescatadas), el sistema de 121.5 MHz se utilizó en el resto de los casos.

4.2.7. Nuevos desarrollos.

El concilio COSPAS-SARSAT está considerando el desarrollo del sistema GEOSAR con satélites de búsqueda y rescate en órbita geoestacionaria que incrementaría el potencial de los ya existentes en órbita polar.

Se ha desarrollado un D&E (Demostración y Evaluación) de GEOSAR .


4.3. GPS.

Inmarsat pretende crear un sistema de navegación (GNSS, Global Navigation Satellite System) totalmente independiente del sistema GPS (EE.UU.) y GLONASS (Rusia), y por tanto, constituiría una alternativa (civil) a ellos.

De hecho, el contratista de Inmarsat, ITT, ha señalado que un sistema global de navegación civil espacial puede ser desarrollado por menos de un millardo de dólares, una pequeña cantidad comparada con el coste del sistema GPS (6-10 millardos de dólares).

Los pasos a seguir hasta constituir la GNSS son los siguientes:

  1. En los satélites Inmarsat-3 se incluye un transpondedor separado que gestiona las señales GPS, aumentando la integrabilidad de este sistema. Lo complementa.

  2. Los 12 satélites del proyecto 21 de Inmarsat (Inmarsat-P, ICO) incluirán antenas separadas, transpondedores y relojes atómicos así como otro instrumental necesario para proveer una amplia gama de servicios de navegación, pero no llegará a sustituir al GPS.

  3. En un tercer paso, se constituirá la GNSS independiente de GPS.

Veamos el primer paso dado por Inmarsat para establecer una GNSS propia a partir de los satélites de Inmarsat 3. Concretamente, la tercera generación de Inmarsat se encarga de la integridad del sistema GPS mediante la técnica GIC (GPS Integrity Channel) , está basada en una red terrena que monitoriza los satélites y transmite a los usuarios los resultados, para lo que el uso de satélites geoestacionarios y los satélites de INMARSAT serán los encargados de llevarla a cabo.

Los satélites de INMARSAT III operarán a la misma frecuencia que la señal C/A (código que permite un posicionamiento rápido del receptor pero con precisión media SPS) del GPS (1575.42 MHz) con una secuencia directa pseudoaleatoria con modulación de espectro ensanchado de la misa familia de GPS que llevará la información de integridad además de la de navegación, se comportarán como repetidores con lo que se simplificarán los circuitos del satélite y la información de integridad podrá ser actualizada en tiempo real.

Las estaciones terrenas de enlace con el satélite serán las mismas que proporcionan los servicios de comunicaciones móviles y son operadas por asociaciones que integran INMARSAT (como Comsat) que será responsable de los satélites.

Requisitos del repetidor del satélite:

Los requisitos del repetidor del satélite son tres:

  • PIRE de 28 dBW en el haz de cobertura global para que la potencia de la señal recibida sea semejante a la señal de los satélites GPS.

  • Ancho de banda nominal del repetidor de 2 MHz para poder transmitir la señal de espectro ensanchado modulada con código C/A a la frecuencia de 1.023 MHz.

  • Estabilidad de las características de retardo de grupo del sistema de modo que pueda ser calibrado para su uso en navegación.

Los satélites INMARSAT III poseen un enlace de banda C a banda L y otro de banda C a banda C de baja potencia, la comparación de los retardos producidos en los dos enlaces se usa para compensar el retardo de propagación ionosférica en el enlace de subida.

Al usar INMARSAT III como repetidor se produce un desplazamiento Doppler adicional debido al enlace de la estación terrena con el satélite, para que la señal recibida sea compatible con la señal GPS se debe compensar en tiempo real el enlace de subida al satélite adelantando la señal de reloj una cantidad igual al retardo del enlace de subida y se desplaza ligeramente la frecuencia de la portadora, este método de generar una señal de reloj virtual en el satélite se denomina Generación de Señal en Bucle Cerrado.

Presentación

Los satélites de radioaficionado son una de las áreas de la radioafición que en México menos se practica. La creencia a que operar satélites es complejo y caro no es necesariamente cierta: hay satélites que podemos trabajar sin tener que estudiar el tema por meses ni contar con equipo sofisticado.

Aunque parezca difícil de creer en la mayoría de nuestros cuartos de radio existen los equipos necesarios para iniciarse en este campo de la radioexperimentación.

La presente es una lista de preguntas básicas sobre la operación satelital con sus correspondientes respuestas. Su nivel es elemental e introductorio y es muy probable que quién desee operar algún satélite deba de consultar otras fuentes, mismas que se citan al final del documento. 73s de XE1KK.

1. ¿Que es un satélite?

En su concepción más sencilla, y quizá simplista, los satélites de radioaficionados son repetidoras voladoras. Su principal diferencia con sus equivalentes terrestres el que vuelan y el que al volar se mueven.

2. ¿Como funciona un satélite?

Un radioaficionado "A" emite una señal que es recibida por el satélite. El satélite la amplifica y la retransmite inmediatamente. El radioaficionado "B" la recibe y le contesta. Así inicia un comunicado por satélite.

3. ¿Como "se mueven" los satélites?

Los actuales satélites con los que podemos experimentar los radioaficionados tienen dos tipos de órbita: circular y elíptica.

Los satélites con órbitas circulares se mantienen mas o menos a la misma distancia de la tierra pero su posición respecto a la superficie varia cada momento. Es la mas común y conocida de las órbitas. Por su parte los satélites de órbitas elípticas, tiene la característica que pueden permanecen más tiempo viendo un mismo lugar de la tierra y su órbitas son mucho más largas.

4. ¿Que cobertura tiene un satelite de orbita baja?

Al igual que en la repetidoras tradicionales a mayor altitud mayor cobertura. Los satélites de órbita baja se encuentran entre 400 y 1400 Km. de altura así que el área que pueden cubrir equivale a toda la República en los más bajos o una área equivalente a México, sur de Estados Unidos, Centro América, parte del Caribe y norte de Colombia en los de mayor altura.

Esta área o sombra del satélite permite que cualquier estación que se encuentre dentro de ella pueda, en principio, contactar otras estaciones que estén dentro de esa sombra. La duración del satélite en esa posición en muy breve ya que se mueven a gran velocidad. La sombra mantiene su diámetro pero también se está moviendo.

5. ¿Cuantas veces pasa un satélite sobre nosotros?

Un satélite de orbita baja pasa por arriba de un determinado punto, entre 4 y 6 veces al día. La duración de cada pase varia dependiendo de la órbita pero en promedio podemos decir que entre 10 y 18 minutos están disponibles para que los operemos. Tenemos pues más de una hora diaria para usarlo.

Si consideramos que hay más de 15 satélites de órbita baja nos daremos cuenta que hay más tiempo de satélites que tiempo para hacer radio.

6. ¿Como funcionan los satélites de órbita elíptica?

Los satélites de órbita elíptica tienen otras características. Su órbita tiene dos puntos claves: el más cercano se le conoce como perigeo y el más lejano como apogeo. En su apogeo casi toda una cara de la tierra esta disponible para comunicar ya que en el caso de algunos satélites como el OSCAR 13 llega a estar a 38,000 Km. de distancia.

Estos satélites equivalen en cierta manera a 20 metros en HF: hay buen DX y siempre hay estaciones llamando CQ. A diferencia de los satélites de órbita baja casi no se nota el efecto dopler, que es el movimiento de frecuencia que se origina por la velocidad a la que se mueve el satélite. Algo similar como cuando escuchamos una ambulancia o un auto a gran velocidad: el tono de la sirena o el motor es distinto antes y después de que pasan frente a nosotros.

7. ¿Como se donde está el satélite?, ¿cuando pasará?

La predicción de las órbitas satelitales se hace por lo general con ayuda de una computadora personal. No es la única opción pero hoy por hoy es la más fácil. Hay diversos y entre ellos destacan el InstanTrack y el QuickTrack. El primero mi favorito y lo vende AMSAT (ver pregunta # 18).

Los programas no solo indican y grafican cuando el satélite pasará sino que dan otros datos importantes como la elevación o altitud sobre el horizonte y el azimut o posición respecto a los cuatro puntos cardinales.

8. ¿Cual es la mejor elevación?

La elevación optima, que es de 90 grados, solo se da cuando el satélite pasa exactamente sobre nosotros. Pero esto no quiere decir que con otras elevaciones no se pueda trabajar, Praticamente cualquier elevación superior a 2 o 3 grados es suficiente si nuestro horizonte lo forman montañas lejanas o montes cercanos pero no muy altos.

9. ¿Y en base a que información el programa hace estos cálculos?.

Los programas de computadora para seguimiento de satélite se actualizan con una serie de datos sobre los satélites mejor conocidos como elementos Keplerianos que por lo general uno consigue fácilmente de los BBSes de packet o de alguna revista sobre el tema.

Existen dos tipos de formatos: NASA o de dos líneas y AMSAT que es mas fácil de entender a los humanos y por lo mismo son mas largos. Para efectos de una computadora da igual cual utilices.

10. ¿Cuantos satélites hay?

A la fecha hay más o menos 20 satélites de radioaficionados disponibles de una u otra forma. Digo mas o menos ya que de vez en cuando alguno queda apagado por falla o mantenimiento.

11. ¿Que tipo de actividad encuentro en los satélites?

Hay satélites para todos los gustos. Muchos de los modos de operación que encontramos en las bandas tradicionales también están disponibles en los satélites: banda lateral, telegrafía, teletipo, televisión de barrido lento, FM y packet de diversos tipos.

En los satélites se hace DX tan bueno como en 20 metros, hay plie-ups y DXpediciones que trabajan en split. Hay diplomas aunque no hay concursos.

Hay espacio para los que les gusta conversar y hacer nuevos amigos. Para el experimentador y en constructor de equipos y antenas, este es un mundo muy amplio. En pocas palabras: lo que hoy nos gusta del radio casi seguro lo encontramos también vía satélite.

12. ¿Como puedo trabajar un satélite?

Dependiendo de las caracteristicas de los satélites será la manera de trabajarlos. Para efectos didacticos podemos dividirlos en cuatro:

A) Satélites de órbita baja para voz o analógicos.

Son los mas fáciles de trabajar y casi todos nos iniciamos en ellos. El sistema por el que operan es el de retransmitir entre 50 y 100 kHz de una banda, en lugar de una sola frecuencia como lo hace un repetidora, a 50 o 100 kHz de otra banda con todo lo que se encuentre en ella, sea CW o banda lateral. Esto se conoce como "transponder".

Entre los satélites de este tipo destacan los rusos RS-10/11 y RS-12/13 y el satélite japonés FUJI OSCAR 20 No se requiere de equipo sofisticado para trabajarlos, quizá solo de un poco de paciencia

B) Satélites de órbita baja digitales.

Son satélites de órbita circular que operan principalmente packet en sus distintas modalidades. Son el equivalentes a BBSes de packet voladores. A la fecha hay más de 10 satélites digitales operando.

Los satélites tradicionales de este tipo, conocidos como pacsats, son el UO-14, AMSAT OSCAR 16, el DOVE OSCAR 17, el Webersat o WO-18 y el satélite argentino LUSAT o LO-19.

Los satélites UO-22 y KITSAT OSCAR 23 también son BBS voladores pero trabajan a 9600 bps y tienen entre sus curiosidades cámaras que toman fotos de la tierra y las retransmiten vía packet.

Una nueva generación de satélites digitales fue lanzada recientemente: el ITAMSAT-A, KITSAT-B, EYESAT-A y POSAT-1. Algunos ya están disponibles para todos, otros siguen en pruebas. El UNAMSAT. primer satélite mexinaco de este tipo muy pronto estará en órbita.

C) Satélites de órbita elíptica.

Son como ya dijimos en donde se llevan a cabo las comunicaciones intercontinentales y algunos modos como SSTV y RTTY, así como otro tipo de experimentos propios del mundo de los satélites.

Entre ellos destacan el OSCAR 10, OSCAR 13 y el ARSENE. El primero ya está cumpliendo su ciclo de vida y el último no funciono. Muy pronto habrá nuevos satélites de este tipo: la llamada FASE 3-D.

D) Satélites tripulados.

Por último las naves espaciales: el MIR ruso y el Space Shuttle norteamericano que como ustedes bien saben traen equipos de dos metros y hacen contacto con radioaficionados en la tierra tanto en voz como en packet. El MIR es relativamente fácil de trabajar en packet dado que los cosmonautas permanecen en el espacio por mucho tiempo.

13 ¿Que equipo necesito para trabajar un satélite?

Cual es el equipo necesario para trabajar satélites es siempre una difícil pregunta. A continuación se presenta una tabla con los equipos MINIMOS necesarios para que con un poco de paciencia y tenacidad se pueda trabajar algún satélite.

                        EQUIPO MINIMO NECESARIO PARA TRABAJAR SATELITES

                   EQUIPO PARA EL

SATELITE  MODO    UPLINK  DOWNLINK   ANTENAS   AMP/PREAMP    TNC    TIPO

----------------------------------------------------------------------------

RS-10/11   A      2m/SSB   10m/SBB      omni    no/no         no   Analógico

DO-17                        2m/FM      omni    no/no     1200 AFSK  Digital

AO-16     JD      2m/FM  70cms/SSB      omni    no/no     1200 PSK   Digital

KO-23     JD      2m/FM  70cms/SSB      omni    no/no     9600 FSK   Digital

AO-13      B  70cms/SSB     2m/SSB     yagis    si/si         no    Elíptico

MIR/STS           2m/FM     2m/FM       omni    no/no     1200 AFSK   Tripul

----------------------------------------------------------------------------

14. ¿Que es el "modo" en los satélites?

El término modo de los satélites es uno de los que hacen parecer complicada esta área de la radioexperimentación. En HF el modo es el tipo de emisión en el que trabajamos: SSB, FM, CW, etc. En satélite el modo significa las bandas que estoy utilizando para trabajar al satélite: que banda uso en el uplink, esto es para transmitir o subir al satélite y el downlink o la banda en la que el satélite transmite de regreso o baja y en la que nosotros recibimos.

        Modo    Uplink                  Downlink

            ----------------------------------------------------

        A       2 metros (145 MHz)      10 metros (29 MHz)

        B       70 cm. (435 MHz)        2 metros  (145 MHz)

        J       2 metros (145 MHz)      70 cm. (435 MHz)

        K       15 metros (21.2 MHz)    10 metros (29 MHz)

        L       23 cm. (1.2 GHz)        70 cm. (435 MHz)

        S       70 cm. (435 MHz)        13 cm. (2.4 GHz)

        T       15 metros (21.2 MHz)    2 metros (145 MHz)

            ----------------------------------------------------

15. ¿Cuando hay modos de dos letras?

En algunas ocasiones vemos modos de dos letras como JA y JD en este caso se refiere a modo J Analógico o modo J Digital. En otras vemos que el satélite trabaja en modo compuesto, por ejemplo KA esto significa que se puede subir en 15 metros o en 2 metros y ambos bajan en 10 metros. En los futuros satélites se prevén nuevos modos.

16. ¿Cual es la potencia que requiero para trabajar satélites?

Los satélites no requieren de grandes potencias, por el contrario mucho de ellos se bloquean o bajan su potencia de downlink como aviso de que se están protegiendo. Si se tiene antenas direccionales un amplificador de 100 watts esta en el límite máximo de lo decente.

17. ¿Cuales son los mas fáciles de escuchar/trabajar y sus frecuencias?

Satélite        Descripción     Uplink MHz              Downlink MHz

----------------------------------------------------------------------------

MIR             FM y packet     145.550                        145.550

----------------------------------------------------------------------------

STS             FM              144.910                 145.550

                                144.930

                                144.950*

                                144.970

                                144.990

                Packet          144.490                 145.550

----------------------------------------------------------------------------

RS-10/11        DX              145.890 USB             29.390 USB

                Modo A          145.860 a 145.900       29.360 a 29.400

                Robot           145.820                 29.403 

                Beacon                                  29.357 y 29.403

----------------------------------------------------------------------------

RS-12/13        DX              21.240 USB              29.440 USB

                Modo K          21.210 a 21.250         29.410 a 29.450

                Robot           21.129 CW               29.454 CW

                Beacon                                  29.408 y 29.454

----------------------------------------------------------------------------

UO-11           FM y packet                             145.825

----------------------------------------------------------------------------

DO-17           FM y packet                             145.825

----------------------------------------------------------------------------

AO-27           Modo J - FM     145.850 +/- .010        436.800 +/- .010

----------------------------------------------------------------------------

La relación entre uplink y downlink puede variar por el efecto dopler.

Algunos de estos satélites trabajan otros modos y tienen otros beacons, aquí solo se mencionan los principales.

El UO-11 y el DO-17 eventualmente emiten mensajes en voz digitalizada.

18. ¿Donde puedo encontrar más información?

  En organizaciones:   AMSAT, Box 27, Washington, D.C. 20044, USA

                       ARRL,

225 Main St., Newington, CT 06111-1494
. USA

225 Main St., Newington, CT 06111-1494
. USA

225 Main St., Newington, CT 06111-1494
. USA

225 Main St., Newington, CT 06111-1494
. USA

                       R. Myers Comm.,

Box 17108 Fountain Hills AZ 85269-7108

Box 17108 Fountain Hills AZ 85269-7108

Box 17108 Fountain Hills AZ 85269-7108

Box 17108 Fountain Hills AZ 85269-7108

  En libros:           The Satellite Experimenters Handbook (ARRL)

                       The ARRL Satellite Antology (ARRL)

                       Having Fun Getting Started on the Oscar and

                        Weather Satellites! (R. Myers Communications)

  Revistas del tema:   The AMSAT Journal (AMSAT)

                       Oscar Satellite Report (R. Myers Communications)

                       Satellite Operator (R. Myers Communications)

 Revistas de radio:    CQ Radio Amateur, QST, World Radio, 73 Amateur Radio

 En-linea:             Internet, Compuserve, etc.

 En packet:            Los mensajes bajo AMSAT y KEPS

Dispositivos de microondas

 La ingeniería de microondas/milimétricas tiene que ver con todos aquellos dispositivos, componentes y sistemas que trabajen en el rango frecuencial de 300 MHz a 300 GHz. Debido a tan amplio margen de frecuencias, tales componentes encuentran aplicación en diversos sistemas de comunicación. Ejemplo típico es un enlace de Radiocomunicaciones terrestre a 6 GHz en el cual detrás de las antenas emisora y receptora, hay toda una circuitería capaz de generar, distribuir, modular, amplificar, mezclar, filtrar y detectar la señal. Otros ejemplos lo constituyen los sistemas de comunicación por satélite, los sistemas radar y los sistemas de comunicación móviles, muy en boga en nuestros días.

La tecnología de semiconductores, que proporciona dispositivos activos que operan en el rango de las microondas, junto con la invención de líneas de transmisión planares; ha permitido la realización de tales funciones por circuitos híbridos de microondas.

En estos circuitos, sobre un determinado sustrato se definen las líneas de transmisión necesarias. Elementos pasivos (condensadores, resistencias) y activos (transistores, diodos) son posteriormente incorporados al circuito mediante el uso de pastas adhesivas y técnicas de soldadura. De ahí el nombre de tecnología híbrida de circuitos integrados (HMIC: "Hibrid Microwave Integrated Circuit"). Recientemente, la tecnología monolítica de circuitos de microondas (MMIC), permite el diseño de circuitos/subsistemas capaces de realizar, muchas de las funciones mencionadas anteriormente, en un sólo "chip". Por las ventajas que ofrece ésta tecnología, su aplicación en el diseño de amplificadores para receptores ópticos, constituye un campo activo de investigación y desarrollo.

El diseño de circuitos de microondas en ambas tecnologías, ha exigido un modelado preciso de los diferentes elementos que forman el circuito. De especial importancia son los dispositivos activos (MESFET, HEMT, HBT); pues conocer su comportamiento tanto en pequeña señal como en gran señal (régimen no lineal), es imprescindible para poder predecir la respuesta de un determinado circuito que haga uso de él. El análisis, modelado y simulación de éstos dispositivos, constituye otra de las áreas de trabajo


Materiales en comunicaciones

La utilización de nuevos materiales con altas prestaciones es uno de los pilares del avance espectacular de las tecnologías de la información y comunicaciones. El desarrollo de aplicaciones basadas en sus propiedades requiere un profundo conocimiento previo de éstas. En particular, el descubrimiento de superconductividad en óxidos cerámicos multimetálicos a temperaturas superiores a 77 K (superconductores de alta temperatura, SAT) puede permitir del desarrollo práctico de algunas aplicaciones de la superconductividad económicamente inviables con los superconductores clásicos. Sin embargo, la gran complejidad de los SAT y su naturaleza granular dificultan la puesta en marcha de aplicaciones de los mismos de forma inmediata, a pesar del gran esfuerzo investigador que en este campo se está realizando en los países avanzados. En concreto, en nuestro grupo se ha trabajado en la caracterización experimental y modelado fenomenológico de las propiedades electromagnéticas de superconductores de alta temperatura crítica, incidiendo especialmente en las implicaciones de la granularidad, y en el desarrollo de aplicaciones de los mismos en magnetometría y en cintas para el transporte de corriente sin pérdidas. Por otra parte, en relación con las aplicaciones de la superconductividad clásica, se ha trabajado en la implementación en España de los patrones primarios de tensión (efecto Josephson) y resistencia (efecto Hall cuántico), en colaboración con grupos nacionales y extranjeros especializados en metrología eléctrica básica. Por último, también se ha colaborado con otros grupos de investigación en la caracterización electromagnética de materiales de interés tecnológico, como imanes permanentes o aceros estructurales

 

TRANSMISIÓN SIN CABLES

 

INTRODUCCIÓN

Cuando se piensa en comunicación de datos generalmente se piensa en comunicación a través de cable, debido a que la mayoría de nosotros tratamos con este tipo de tecnología en nuestro día a día. Haciendo a un lado las complicadas redes cableadas también tenemos la llamada COMUNICACIÓN INALÁMBRICA muy comúnmente a nuestro alrededor.

La Comunicación de data inalámbrica en la forma de microondas y enlaces de satélites son usados para transferir voz y data a larga distancia. Los canales inalámbricos son utilizados para la comunicación digital cuando no es económicamente conveniente la conexión de dos puntos vía cable; además son ampliamente utilizados para interconectar redes locales (LANS) con sus homologas redes de área amplia (WANS) sobre distancias moderadas y obstáculos como autopistas, lagos, edificios y ríos. Los enlaces vía satélite permiten no solo rebasar obstáculos físicos sino que son capaces de comunicar continentes enteros, barcos, rebasando distancia sumamente grandes.

Los sistemas de satélites y de microondas utilizan frecuencias que están en el rango de los MHz y GHz, usualmente utilizan diferentes frecuencias para evitar interferencias pero comparten algunas bandas de frecuencias.

  COMUNICACIÓN VÍA MICROONDAS

Básicamente un enlace vía microondas consiste en tres componentes fundamentales: El Transmisor, El receptor y El Canal Aéreo. El Transmisor es el responsable de modular una señal digital a la frecuencia utilizada para transmitir, El Canal Aéreo representa un camino abierto entre el transmisor y el receptor, y como es de esperarse el receptor es el encargado de capturar la señal transmitida y llevarla de nuevo a señal digital.

El factor limitante de la propagación de la señal en enlaces microondas es la distancia que se debe cubrir entre el transmisor y el receptor, además esta distancia debe ser libre de obstáculos. Otro aspecto que se debe señalar es que en estos enlaces, el camino entre el receptor y el transmisor debe tener una altura mínima sobre los obstáculos en la vía, para compensar este efecto se utilizan torres para ajustar dichas alturas.

  ANTENAS Y TORRES DE MICROONDAS

La distancia cubierta por enlaces microondas puede ser incrementada por el uso de repetidoras, las cuales amplifican y redireccionan la señal, es importante destacar que los obstáculos de la señal pueden ser salvados a través de reflectores pasivos. Las siguientes figuras muestran como trabaja un repetidor y como se ven los reflectores pasivos.

 

La señal de microondas transmitidas es distorsionada y atenuada mientras viaja desde el transmisor hasta el receptor, estas atenuaciones y distorsiones son causadas por una perdida de poder dependiente a la distancia, reflexión y refracción debido a obstáculos y superficies reflectoras, y a pérdidas atmosféricas.

La siguiente es una lista de frecuencias utilizadas por los sistemas de microondas:

Common Carrier         Operational Fixed

2.110                           2.130 GHz

1.850                           1.990 GHz

2.160                           2.180 GHz

2.130                           2.150 GHz

3.700                           4.200 GHz

2.180                           2.200 GHz

5.925                           6.425 GHz

2.500                           2.690 GHz

10.7                             11.700 GHz

6.575                           6.875 GHz

12.2                             12.700 GHz

Debido al uso de las frecuencias antes mencionadas algunas de las ventajas son:

         Antenas relativamente pequeñas son efectivas.

         A estas frecuencias las ondas de radio se comportan como ondas de luz, por ello la señal puede ser enfocada utilizando antenas parabólicas y antenas de embudo, además pueden ser reflejadas con reflectores pasivos.

         Ora ventaja es el ancho de banda, que va de 2 a 24 GHz.

Como todo en la vida, el uso de estas frecuencias también posee desventajas:

Las frecuencias son susceptibles a un fenómeno llamado Disminución de Multicamino (Multipath Fafing), lo que causa profundas disminuciones en el poder de las señales recibidas.

A estas frecuencias las perdidas ambientales se transforman en un factor importante, la absorción de poder causada por la lluvia puede afectar dramáticamente el Performance del canal.

  COMUNICACIÓN POR SATÉLITE

Básicamente, los enlaces satelitales son iguales a los de microondas excepto que uno de los extremos de la conexión se encuentra en el espacio, como se había mencionado un factor limitante para la comunicación microondas es que tiene que existir una línea recta entre los dos puntos pero como la tierra es esférica esta línea se ve limitada en tamaño entonces, colocando sea el receptor o el transmisor en el espacio se cubre un área más grande de superficie.

El siguiente gráfico muestra un diagrama sencillo de un enlace vía satélite, nótese que los términos UPLINK y DOWNLINK aparecen en la figura, el primero se refiere al enlace de la tierra al satélite y la segunda del satélite a la tierra.

Las comunicaciones vía satélite poseen numerosas ventajas sobre las comunicaciones terrestres, la siguiente es una lista de algunas de estas ventajas:

         El costo de un satélite es independiente a la distancia que valla a cubrir.

         La comunicación entre dos estaciones terrestres no necesita de un gran número de repetidoras puesto que solo se utiliza un satélite.

         Las poblaciones pueden ser cubiertas con una sola señal de satélite, sin tener que preocuparse en gran medida del problema de los obstáculos.

         Grandes cantidades de ancho de bandas están disponibles en los circuitos satelitales generando mayores velocidades en la transmisión de voz, data y vídeo sin hacer uso de un costoso enlace telefónico.

Estas ventajas poseen sus contrapartes, alguna de ellas son:

         El retardo entre el UPLINK y el DOWNLINK esta alrededor de un cuarto de segundo, o de medio segundo para una señal de eco.

         La absorción por la lluvia es proporcional a la frecuencia de la onda.

         Conexiones satelitales multiplexadas imponen un retardo que afectan las comunicaciones de voz, por lo cual son generalmente evitadas.

Los satélites de comunicación están frecuentemente ubicados en lo que llamamos Orbitas Geosincronizadas, lo que significa que el satélite circulará la tierra a la misma velocidad en que esta rota lo que lo hace parecer inmóvil desde la tierra. Un a ventaja de esto es que el satélite siempre esta a la disposición para su uso. Un satélite para estar en este tipo de órbitas debe ser posicionado a 13.937,5 Kms. de altura, con lo que es posible cubrir a toda la tierra utilizando solo tres satélites como lo muestra la figura.

Un satélite no puede retransmitir una señal a la misma frecuencia a la que es recibida, si esto ocurriese el satélite interferiría con la señal de la estación terrestre, por esto el satélite tiene que convertir la señal recibida de una frecuencia a otra antes de retransmitirla, para hacer esto lo hacemos con algo llamado "Transponders". La siguiente imagen muestra como es el proceso.

Al igual que los enlaces de microondas las señales transmitidas vía satélites son también degradadas por la distancia y las condiciones atmosféricas.

Otro punto que cabe destacar es que existen satélites que se encargan de regenerar la señal recibida antes de retransmitirla, pero estos solo pueden ser utilizados para señales digitales, mientras que los satélites que no lo hacen pueden trabajar con ambos tipos de señales (Análogas y Digitales).

por: WILLTELECOM


FIBRA OPTICA

Publicado el 1 de Marzo, 2006, 14:36. en General.
Referencias (0)

FIBRA OPTICA

INTRODUCCIÓN

Para navegar por la red mundial de redes, Internet, no sólo se necesitan un computador, un módem y algunos programas, sino también una gran dosis de paciencia. El ciberespacio es un mundo lento hasta el desespero. Un usuario puede pasar varios minutos esperando a que se cargue una página o varias horas tratando de  bajar un programa de la Red a su PC.

Esto se debe a que las líneas telefónicas, el medio que utiliza la mayoría de los 50 millones de usuarios para conectarse a Internet, no fueron creadas para transportar vídeos, gráficas, textos y todos los demás elementos que viajan de un lado a otro en la Red.

Pero las líneas telefónicas no son la única vía hacia el ciberespacio. Recientemente un servicio permite conectarse a Internet a través de la fibra óptica.

Origen y Evolución

La Historia de la comunicación por la fibra óptica es relativamente corta. En 1977, se instaló un sistema de prueba en Inglaterra; dos años después, se producían ya cantidades importantes de pedidos de este material.

Antes, en 1959, como derivación de los estudios en física enfocados a la óptica, se descubrió una nueva utilización de la luz, a la que se denominó rayo láser, que fue aplicado a las telecomunicaciones con el fin de que los mensajes se transmitieran a velocidades inusitadas y con amplia cobertura.

Sin embargo esta utilización del láser era muy limitada debido a que no existían los conductos y canales adecuados para hacer viajar las ondas electromagnéticas provocadas por la lluvia de fotones originados en la fuente denominada láser.

Fue entonces cuando los científicos y técnicos especializados en óptica dirigieron sus esfuerzos a la producción de un ducto o canal, conocido hoy como la fibra óptica. En 1966 surgió la propuesta de utilizar una guía óptica para la comunicación.

Esta forma de usar la luz como portadora de información se puede explicar de la siguiente manera: Se trata en realidad de una onda electromagnética de la misma naturaleza que las ondas de radio, con la única diferencia que la longitud de las ondas es del orden de micrómetros en lugar de metros o centímetros.

El concepto de las comunicaciones por ondas luminosas ha sido conocido por muchos años. Sin embargo, no fue hasta mediados de los años setenta que se publicaron los resultados del trabajo teórico. Estos indicaban que era posible confiar un haz luminoso en una fibra transparente flexible y proveer así un análogo óptico de la señalización por alambres electrónicamente.

El problema técnico que se había de resolver para el avance de la fibra óptica residía en las fibras mismas, que absorbían luz que dificultaba el proceso. Para la comunicación práctica, la fibra óptica debe transmitir señales luminosas detestables por muchos kilómetros. El vidrio ordinario tiene un haz luminoso de pocos metros. Se han desarrollado nuevos vidrios muy puros con transparencias mucho mayores que la del vidrio ordinario.  Estos vidrios empezaron a producirse a principios de los setenta. Este gran avance dio ímpetu a la industria de fibras ópticas. Se usaron láseres o diodos emisores de luz como fuente luminosa en los cables de fibras ópticas. Ambos han de ser miniaturizados para componentes de sistemas fibro-ópticos, lo que ha exigido considerable labor de investigación y desarrollo. Los láseres generan luz "coherente" intensa que permanece en un camino sumamente estrecho.  Los diodos emiten luz "incoherente" que ni es fuerte ni concentrada. Lo que se debe usar depende de los requisitos técnicos para diseñar el circuito de fibras ópticas dado.

QUÉ ES FIBRA ÓPTICA

Antes de explicar directamente que es la fibra óptica, es conveniente resaltar ciertos aspectos básicos de óptica. La luz se mueve a la velocidad de la luz en el vacío, sin embargo, cuando se propaga por cualquier otro medio, la velocidad es menor. Así, cuando la luz pasa de propagarse por un cierto medio a propagarse por otro determinado medio, su velocidad cambia, sufriendo además efectos de reflexión (la luz rebota en el cambio de medio, como la luz reflejada en los cristales) y de refracción (la luz, además de cambiar el modulo de su velocidad, cambia de dirección de propagación, por eso vemos una cuchara como doblada cuando está en un vaso de agua, la dirección de donde nos viene la luz en la parte que está al aire no es la misma que la que está metida en el agua). Esto se ve de mejor forma en el dibujo que aparece a nuestra derecha.

Dependiendo de la velocidad con que se propague la luz en un medio o material, se le asigna un Índice de Refracción "n", un número deducido de dividir la velocidad de la luz en el vacío entre la velocidad de la luz en dicho medio. Los efectos de reflexión y refracción que se dan en la frontera entre dos medios dependen de sus Índices de Refracción. La ley más importante que voy a utilizar en este artículo es la siguiente para la refracción:

Esta fórmula nos dice que el índice de refracción del primer medio, por el seno del ángulo con el que incide la luz en el segundo medio, es igual al índice del segundo medio por el seno del ángulo con el que sale propagada la luz en el segundo medio. ¿Y esto para que sirve?, lo único que nos interesa aquí de esta ley es que dados dos medios con índices n y n', si el haz de luz incide con un ángulo mayor que un cierto ángulo límite (que se determina con la anterior ecuación) el haz siempre se reflejara en la superficie de separación entre ambos medios. De esta forma se puede guiar la luz de forma controlada tal y como se ve en el dibujo de abajo (que representa de forma esquemática como es la fibra óptica).

Como se ve en el dibujo, tenemos un material envolvente con índice n y un material interior con índice n'. De forma que se consigue guiar la luz por el cable. La Fibra Óptica conor tanto, en un cable de este tipo en el que los materiales son mucho más económicos que los convencionales de cobre en telefonía, de hecho son materiales ópticos mucho más ligeros (fibra óptica, lo dice el nombre), y además los cables son mucho más finos, de modo que pueden ir muchos más cables en el espacio donde antes solo iba un cable de cobre.

CONCEPTO DE FIBRA ÓPTICA

Los circuitos de fibra óptica son filamentos de vidrio (compuestos de cristales naturales) o plástico (cristales artificiales), del espesor de un pelo (entre 10 y 300 micrones). Llevan mensajes en forma de haces de luz que realmente pasan a través de ellos de un extremo a otro, donde quiera que el filamento vaya (incluyendo curvas y esquinas) sin interrupción.

Las fibras ópticas pueden ahora usarse como los alambres de cobre convencionales, tanto en pequeños ambientes autónomos (tales como sistemas de procesamiento de datos de aviones), como en grandes redes geográficas (como los sistemas de largas líneas urbanas mantenidos por compañías telefónicas).

El principio en que se basa la transmisión de luz por la fibra es la reflexión interna total; la luz que viaja por el centro o núcleo de la fibra incide sobre la superficie externa con un ángulo mayor que el ángulo crítico, de forma que toda la luz se refleja sin pérdidas hacia el interior de la fibra. Así, la luz puede transmitirse a larga distancia reflejándose miles de veces. Para evitar pérdidas por dispersión de luz debida a impurezas de la superficie de la fibra, el núcleo de la fibra óptica está recubierto por una capa de vidrio con un índice de refracción mucho menor; las reflexiones se producen en la superficie que separa la fibra de vidrio y el recubrimiento.

Concluyo pues diciendo que, la Fibra Óptica consiste en una guía de luz con materiales mucho mejores que lo anterior en varios aspectos. A esto le podemos añadir que en la fibra óptica la señal no se atenúa tanto como en el cobre, ya que en las fibras no se pierde información por refracción o dispersión de luz consiguiéndose así buenos rendimientos, en el cobre, sin embargo, las señales se ven atenuadas por la resistencia del material a la propagación de las ondas electromagnéticas de forma mayor. Además, se pueden emitir a la vez por el cable varias señales diferentes con distintas frecuencias para distinguirlas, lo que en telefonía se llama unir o multiplexar diferentes conversaciones eléctricas. También se puede usar la fibra óptica para transmitir luz directamente y otro tipo de ventajas en las que no entraré en detalle.

FABRICACIÓN DE LA FIBRA ÓPTICA

 Las imágenes aquí muestran como se fabrica la fibra monomodo. Cada etapa de fabricación esta ilustrada por una corta secuencia filmada.

La primera etapa consiste en el ensamblado de un tubo y de una barra de vidrio cilíndrico montados concéntricamente. Se calienta el todo para asegurar la homogeneidad de la barra de vidrio.

Una barra de vidrio de una longitud de 1 m y de un diámetro de 10 cm permite obtener iramiento una fibra monomodo de una longitud de alrededor de 150 km.

 ¿ DE QUÉ ESTÁN HECHAS LAS FIBRAS ÓPTICAS ?

La mayoría de las fibras ópticas se hacen de arena o sílice, materia prima abundante en comparación con el cobre. con unos kilogramos de vidrio pueden fabricarse aproximadamente 43 kilómetros de fibra óptica. Los dos constituyentes esenciales de las fibras ópticas son el núcleo y el revestimiento. el núcleo es la parte más interna de la fibra y es la que guía la luz.

Consiste en una o varias hebras delgadas de vidrio o de plástico con diámetro de 50 a 125 micras. el revestimiento es la parte que rodea y protege al núcleo. 

El conjunto de núcleo y revestimiento está a su vez rodeado por un forro o funda de plástico u otros materiales que lo resguardan contra la humedad, el aplastamiento, los roedores, y otros riesgos del entorno.

¿ CÓMO FUNCIONA LA FIBRA ÓPTICA ?

En un sistema de transmisión por fibra óptica existe un transmisor que se encarga de transformar las ondas electromagnéticas en energía óptica o en luminosa, por ello se le considera el componente activo de este proceso. Una vez que es transmitida la señal luminosa por las minúsculas fibras, en otro extremo del circuito se encuentra un tercer componente al que se le denomina detector óptico o receptor, cuya misión consiste en transformar la señal luminosa en energía electromagnética, similar a la señal original. El sistema básico de transmisión se compone en este orden, de señal de entrada, amplificador, fuente de luz, corrector óptico, línea de fibra óptica (primer tramo ), empalme, línea de fibra óptica (segundo tramo), corrector óptico, receptor, amplificador y señal de salida.

En resumen, se puede decir que este proceso de comunicación, la fibra óptica funciona como medio de transportación de la señal luminosa, generado por el transmisor de LED"S (diodos emisores de luz) y láser.

Los diodos emisores de luz y los diodos láser son fuentes adecuadas para la transmisión mediante fibra óptica, debido a que su salida se puede controlar rápidamente por medio de una corriente de polarización. Además su pequeño tamaño, su luminosidad, longitud de onda y el bajo voltaje necesario para manejarlos son características atractivas.

¿ CUÁLES SON LOS DISPOSITIVOS IMPLÍCITOS EN ESTE PROCESO ?

Los bloques principales de un enlace de comunicaciones de fibra óptica son: transmisor, receptor y guía de fibra. El transmisor consiste de una interfase analógica o digital, un conversor de voltaje a corriente, una fuente de luz y un adaptador de fuente de luz a fibra. La guía de fibra es un vidrio ultra puro o un cable plástico. El receptor incluye un dispositivo conector detector de fibra a luz, un foto detector, un conversor de corriente a voltaje un amplificador de voltaje y una interfase analógica o digital En un transmisor de fibra óptica la fuente de luz se puede modular por una señal análoga o digital.

Acoplando impedancias y limitando la amplitud de la señal o en pulsos digitales.El conversor de voltaje a corriente sirve como interfase eléctrica entre los circuitos de entrada y la fuente de luz.

La fuente de luz puede ser un diodo emisor de luz LED o un diodo de inyección láser ILD, la cantidad de luz emitida es proporcional a la corriente de excitación, por lo tanto el conversor voltaje a corriente convierte el voltaje de la señal de entrada en una corriente que se usa para dirigir la fuente de luz. La conexión de fuente a fibra es una interfase mecánica cuya función es acoplar la fuente de luz al cable.

La fibra óptica consiste de un núcleo de fibra de vidrio o plástico, una cubierta y una capa protectora. El dispositivo de acoplamiento del detector de fibra a luz también es un acoplador mecánico.

El detector de luz generalmente es un diodo PIN o un APD (fotodiodo de avalancha). Ambos convierten la energía de luz en corriente. En consecuencia, se requiere un conversor corriente a voltaje que transforme los cambios en la corriente del detector a cambios de voltaje en la señal de salida.

COMPONENTES Y TIPOS DE FIBRA ÓPTICA

Componentes de la Fibra Óptica

El Núcleo: En sílice, cuarzo fundido o plástico - en el cual se propagan las ondas ópticas. Diámetro: 50 o 62,5 um para la fibra multimodo y 9um para la fibra monomodo.

La Funda Óptica: Generalmente de los mismos materiales que el núcleo pero con aditivos que confinan las ondas ópticas en el núcleo.

El revestimiento de protección: por lo general esta fabricado en plástico y asegura la protección mecánica de la fibra.

                                              

Tipos de Fibra Óptica:

Fibra Monomodo: 

Potencialmente, esta es la fibra que ofrece la mayor capacidad de transporte de información. Tiene una banda de paso del orden de los 100 GHz/km. Los mayores flujos se consiguen con esta fibra, pero también es la más compleja de implantar. El dibujo muestra que sólo pueden ser transmitidos los rayos que tienen una trayectoria que sigue el eje de la fibra, por lo que se ha ganado el nombre de "monomodo" (modo de propagación, o camino del haz luminoso, único). Son fibras que tienen el diámetro del núcleo en el mismo orden de magnitud que la longitud de onda de las señales ópticas que transmiten, es decir, de unos 5 a 8 m m. Si el núcleo está constituido de un material cuyo índice de refracción es muy diferente al de la cubierta, entonces se habla de fibras monomodo de índice escalonado. Los elevados flujos que se pueden alcanzar constituyen la principal ventaja de las fibras monomodo, ya que sus pequeñas dimensiones implican un manejo delicado y entrañan dificultades de conexión que aún se dominan mal.

Fibra Multimodo de Índice Gradiante Gradual: 

Las fibras multimodo de índice de gradiente gradual tienen una banda de paso que llega hasta los 500MHz por kilómetro. Su principio se basa en que el índice de refracción en el interior del núcleo no es único y decrece cuando se desplaza del núcleo hacia la cubierta. Los rayos luminosos se encuentran enfocados hacia el eje de la fibra, como se puede ver en el dibujo. Estas fibras permiten reducir la dispersión entre los diferentes modos de propagación a través del núcleo de la fibra.

La fibra multimodo de índice de gradiente gradual de tamaño 62,5/125 m (diámetro del núcleo/diámetro de la cubierta) está normalizado, pero se pueden encontrar otros tipos de fibras:

Multimodo de índice escalonado 100/140 mm.

Multimodo de índice de gradiente gradual 50/125 m m.

Fibra Multimodo de índice escalonado:

Las fibras multimodo de índice escalonado están fabricadas a base de vidrio, con una atenuación de 30 dB/km, o plástico, con una atenuación de 100 dB/km. Tienen una banda de paso que llega hasta los 40 MHz por kilómetro. En estas fibras, el núcleo está constituido por un material uniforme cuyo índice de refracción es claramente superior al de la cubierta que lo rodea. El paso desde el núcleo hasta la cubierta conlleva por tanto una variación brutal del índice, de ahí su nombre de índice escalonado.

¿ QUÉ TIPO DE CONECTORES USA ?

Con la Fibra Óptica se puede usar Acopladores y Conectores:

Acopladores:
Un acoplador es básicamente la transición mecánica necesaria para poder dar continuidad al paso de luz del extremo conectorizado de un cable de fibra óptica a otro. Pueden ser provistos también acopladores de tipo "Híbridos", que permiten acoplar dos diseños distintos de conector, uno de cada lado, condicionado a la coincidencia del perfil del pulido.

CONECTORES:
1.- Se recomienda el conector 568SC pues este mantiene la polaridad. La posición correspondiente a los dos conectores del 568SC en su adaptador, se denominan como A y B. Esto ayuda a mantener la polaridad correcta en el sistema de cableado y permite al adaptador a implementar polaridad inversa acertada de pares entre los conectores.

2.- Sistemas con conectores BFOC/2.5 y adaptadores (Tipo ST) instalados pueden seguir siendo utilizados en plataformas actuales y futuras.

Identificación: Conectores y adaptadores Multimodo se representan por el color marfil Conectores y adaptadores Monomodo se representan por el color azul.

Para la terminación de una fibra óptica es necesario utilizar conectores o empalmar Pigtails (cables armados con conector) por medio de fusión. Para el caso de conectorización se encuentran distintos tipos de conectores dependiendo el uso y l normativa mundial usada y sus características.

ST conector de Fibra para Monomodo o Multimodo con uso habitual en Redes de Datos y equipos de Networking locales en forma Multimodo.

FC conector de Fibra Óptica para Monomodo o Multimodo con uso habitual en telefonía y CATV en formato Monomodo y Monomodo Angular.-

SC conector de Fibra óptica para Monomodo y Multimodo con uso habitual en telefonía en formato monomodo.

CARACTERÍSTICAS DE LA FIBRA ÓPTICA

Características Generales:

Coberturas más resistentes:

La cubierta especial es extruida a alta presión directamente sobre el mismo núcleo del cable, resultando en que la superficie interna de la cubierta del cable tenga arista helicoidales que se aseguran con los subcables.

La cubierta contiene 25% más material que las cubiertas convencionales.

Uso Dual (interior y exterior):


La resistencia al agua, hongos y emisiones ultra violeta; la cubierta resistente; buffer de 900 µm; fibras ópticas probadas bajo 100 kpsi; y funcionamiento ambiental extendida; contribuyen a una mayor confiabilidad durante el tiempo de vida.

Mayor protección en lugares húmedos:


En cables de tubo holgado rellenos de gel, el gel dentro de la cubierta se asienta dejando canales que permitan que el agua migre hacia los puntos de terminación. El agua puede acumularse en pequeñas piscinas en los vacíos, y cuando la delicada fibra óptica es expuesta, la vida útil es recortada por los efectos dañinos del agua en contacto. combaten la intrusión de humedad con múltiples capas de protección alrededor de la fibra óptica. El resultado es una mayor vida útil, mayor confiabilidad especialmente ambientes húmedos.

Protección Anti-inflamable:

Los nuevos avances en protección anti-inflamable hace que disminuya el riesgo que suponen las instalaciones antiguas de Fibra Óptica que contenían cubiertas de material inflamable y relleno de gel que también es inflamable.

Estos materiales no pueden cumplir con los requerimientos de las normas de instalación, presentan un riesgo adicional, y pueden además crear un reto costoso y difícil en la restauración después de un incendio. Con los nuevos avances en este campo y en el diseño de estos cables se eliminan estos riesgos y se cumple con las normas de instalación. 

Empaquetado de alta densidad:

Con el máximo número de fibras en el menor diámetro posible se consigue una más rápida y más fácil instalación, donde el cable debe enfrentar dobleces agudos y espacios estrechos. Se ha llegado a conseguir un cable con 72 fibras de construcción súper densa cuyo diámetro es un 50% menor al de los cables convencionales.

Características Técnicas:

La fibra es un medio de transmisión de información analógica o digital. Las ondas electromagnéticas viajan en el espacio a la velocidad de la luz.

Básicamente, la fibra óptica está compuesta por una región cilíndrica, por la cual se efectúa la propagación, denominada núcleo y de una zona externa al núcleo y coaxial con él, totalmente necesaria para que se produzca el mecanismo de propagación, y que se denomina envoltura o revestimiento.

La capacidad de transmisión de información que tiene una fibra óptica depende de tres características fundamentales:

  a) Del diseño geométrico de la fibra.

b) De las propiedades de los materiales empleados en su elaboración. (diseño óptico)

c) De la anchura espectral de la fuente de luz utilizada. Cuanto mayor sea esta anchura, menor será la capacidad de transmisión de información de esa fibra.

               

Presenta dimensiones más reducidas que los medios preexistentes. Un cable de 10 fibras tiene un diámetro aproximado de 8 o 10 mm. y proporciona la misma o más información que un coaxial de 10 tubos.

El peso del cable de fibras ópticas es muy inferior al de los cables metálicos, redundando en su facilidad de instalación.

El sílice tiene un amplio margen de funcionamiento en lo referente a temperatura, pues funde a 600C. La F.O. presenta un funcionamiento uniforme desde -550 C a +125C sin degradación de sus características.

Características Mecánicas:

La F.O. como elemento resistente dispuesto en el interior de un cable formado por agregación de varias de ellas, no tiene características adecuadas de tracción que permitan su utilización directa.

Por otra parte, en la mayoría de los casos las instalaciones se encuentran a la intemperie o en ambientes agresivos que pueden afectar al núcleo.

La investigación sobre componentes optoelectrónicos y fibras ópticas han traído consigo un sensible aumento de la calidad de funcionamiento de los sistemas. Es necesario disponer de cubiertas y protecciones de calidad capaces de proteger a la fibra. Para alcanzar tal objetivo hay que tener en cuenta su sensibilidad a la curvatura y microcurvatura, la resistencia mecánica y las características de envejecimiento.

Las microcurvaturas y tensiones se determinan por medio de los ensayos de: 

Tensión: cuando se estira o contrae el cable se pueden causar fuerzas que rebasen el porcentaje de elasticidad de la fibra óptica y se rompa o formen microcurvaturas.

Compresión: es el esfuerzo transversal.

Impacto: se debe principalmente a las protecciones del cable óptico.

Enrollamiento: existe siempre un límite para el ángulo de curvatura pero, la existencia del forro impide que se sobrepase.

Torsión: es el esfuerzo lateral y de tracción.

Limitaciones Térmicas: estas limitaciones difieren en alto grado según se trate de fibras realizadas a partir del vidrio o a partir de materiales sintéticos.

Otro objetivo es minimizar las pérdidas adicionales por cableado y las variaciones de la atenuación con la temperatura. Tales diferencias se deben a diseños calculados a veces para mejorar otras propiedades, como la resistencia mecánica, la calidad de empalme, el coeficiente de relleno (número de fibras por mm2) o el costo de producción.

VENTAJAS Y DESVENTAJAS DE LA FIBRA ÓPTICA

VENTAJAS

La fibra óptica hace posible navegar por Internet a una velocidad de dos millones de bps.

Acceso ilimitado y continuo las 24 horas del día, sin congestiones. 

Video y sonido en tiempo real.

Fácil de instalar.

Es inmune al ruido y las interferencias, como ocurre cuando un alambre telefónico pierde parte de su señal a otra.

Las fibras no pierden luz, por lo que la transmisión es también segura y no puede ser perturbada.

Carencia de señales eléctricas en la fibra, por lo que no pueden dar sacudidas ni otros peligros. Son convenientes para trabajar en ambientes explosivos.

Presenta dimensiones más reducidas que los medios preexistentes. 

El peso del cable de fibras ópticas es muy inferior al de los cables metálicos, capaz de llevar un gran número de señales.

La materia prima para fabricarla es abundante en la naturaleza.

Compatibilidad con la tecnología digital.

DESVENTAJAS

Sólo pueden suscribirse las personas que viven en las zonas de la ciudad por las cuales ya esté instalada la red de fibra óptica. 

El coste es alto en la conexión de fibra óptica, las empresas no  cobran por tiempo de utilización sino por cantidad de información transferida al computador, que se mide en megabytes. 

El coste de instalación es elevado.

Fragilidad de las fibras. 

Disponibilidad limitada de conectores.

Dificultad de reparar un cable de fibras roto en el campo. 

APLICACIONES DE LA FIBRA ÓPTICA

Internet

El servicio de conexión a Internet por fibra óptica, derriba la mayor limitación del ciberespacio: su exasperante lentitud. El propósito del siguiente artículo es describir el mecanismo de acción, las ventajas y sus desventajas.

Para navegar por la red mundial de redes, Internet, no sólo se necesitan un computador, un módem y algunos programas, sino también una gran dosis de paciencia. El ciberespacio es un mundo lento hasta el desespero. Un usuario puede pasar varios minutos esperando a que se cargue una página o varias horas tratando de bajar un programa de la Red a su PC.

Esto se debe a que las líneas telefónicas, el medio que utiliza la mayoría de los 50 millones de usuarios para conectarse a Internet, no fueron creadas para transportar videos, gráficas, textos y todos los demás elementos que viajan de un lado a otro en la Red.

Pero las líneas telefónicas no son la única vía hacia el ciberespacio. Recientemente un servicio permite conectarse a Internet a través de la fibra óptica.

La fibra óptica hace posible navegar por Internet a una velocidad de dos millones de bps, impensable en el sistema convencional, en el que la mayoría de usuarios se conecta a 28.000 0 33.600 bps. 

Redes

La fibra óptica se emplea cada vez más en la comunicación, debido a que las ondas de luz tienen una frecuencia alta y la capacidad de una señal para transportar información aumenta con la frecuencia. En las redes de comunicaciones se emplean sistemas de láser con fibra óptica. Hoy funcionan muchas redes de fibra para comunicación a larga distancia, que proporcionan conexiones transcontinentales y transoceánicas. Una ventaja de los sistemas de fibra óptica es la gran distancia que puede recorrer una señal antes de necesitar un repetidor para recuperar su intensidad. En la actualidad, los repetidores de fibra óptica están separados entre sí unos 100 km, frente a aproximadamente 1,5 km en los sistemas eléctricos. Los amplificadores de fibra óptica recientemente desarrollados pueden aumentar todavía más esta distancia.

Otra aplicación cada vez más extendida de la fibra óptica son las redes de área local. Al contrario que las comunicaciones de larga distancia, estos sistemas conectan a una serie de abonados locales con equipos centralizados como ordenadores (computadoras) o impresoras. Este sistema aumenta el rendimiento de los equipos y permite fácilmente la incorporación a la red de nuevos usuarios. El desarrollo de nuevos componentes electroópticos y de óptica integrada aumentará aún más la capacidad de los sistemas de fibra.

Red de área local o LAN, conjunto de ordenadores que pueden compartir datos, aplicaciones y recursos (por ejemplo impresoras). Las computadoras de una red de área local (LAN, Local Area Network) están separadas por distancias de hasta unos pocos kilómetros, y suelen usarse en oficinas o campus universitarios. Una LAN permite la transferencia rápida y eficaz de información en el seno de un grupo de usuarios y reduce los costes de explotación.

Otros recursos informáticos conectados son las redes de área amplia (WAN, Wide Area Network) o las centralitas particulares (PBX). Las WAN son similares a las LAN, pero conectan entre sí ordenadores separados por distancias mayores, situados en distintos lugares de un país o en diferentes países; emplean equipo físico especializado y costoso y arriendan los servicios de comunicaciones. Las PBX proporcionan conexiones informáticas continuas para la transferencia de datos especializados como transmisiones telefónicas, pero no resultan adecuadas para emitir y recibir los picos de datos de corta duración empleados por la mayoría de las aplicaciones informáticas.

Las redes de comunicación públicas están divididas en diferentes niveles; conforme al funcionamiento, a la capacidad de transmisión, así como al alcance que definen. Por ejemplo, si está aproximándose desde el exterior hacia el interior de una gran ciudad, se tiene primeramente la red interurbana y red provicional, a continuación las líneas prolongadas aportadoras de tráfico de más baja capacidad procedente de áreas alejadas (red rural), hacia el centro la red urbana y finalmente las líneas de abonado. Los parámetros dictados por la práctica son el tramo de transmisión que es posible cubrir y la velocidad binaria específica así como el tipo de fibra óptica apropiado, es decir, cables con fibras monomodo ó multimodo. 

Telefonía

Con motivo de la normalización de interfaces existentes, se dispone de los sistemas de transmisión por fibra óptica para los niveles de la red de telecomunicaciones públicas en una amplia aplicación, contrariamente para sistemas de la red de abonado (línea de abonado), hay ante todo una serie de consideraciones.

Para la conexión de un teléfono es completamente suficiente con los conductores de cobre existentes. Precisamente con la implantación de los servicios en banda ancha como la videoconferencia, la videotelefonía, etc, la fibra óptica se hará imprescindible para el abonado. Con el BIGFON (red urbana integrada de telecomunicaciones en banda ancha por fibra óptica) se han recopilado amplias experiencias en este aspecto. Según la estrategia elaborada, los servicios de banda ancha posteriormente se ampliarán con los servicios de distribución de radio y de televisión en una red de telecomunicaciones integrada en banda ancha (IBFN).

Otras aplicaciones

Las fibras ópticas también se emplean en una amplia variedad de sensores, que van desde termómetros hasta giroscopios. Su potencial de aplicación en este campo casi no tiene límites, porque la luz transmitida a través de las fibras es sensible a numerosos cambios ambientales, entre ellos la presión, las ondas de sonido y la deformación, además del calor y el movimiento. Las fibras pueden resultar especialmente útiles cuando los efectos eléctricos podrían hacer que un cable convencional resultara inútil, impreciso o incluso peligroso. También se han desarrollado fibras que transmiten rayos láser de alta potencia para cortar y taladrar materiales.

La aplicación más sencilla de las fibras ópticas es la transmisión de luz a lugares que serían difíciles de iluminar de otro modo, como la cavidad perforada por la turbina de un dentista. También pueden emplearse para transmitir imágenes; en este caso se utilizan haces de varios miles de fibras muy finas, situadas exactamente una al lado de la otra y ópticamente pulidas en sus extremos. Cada punto de la imagen proyectada sobre un extremo del haz se reproduce en el otro extremo, con lo que se reconstruye la imagen, que puede ser observada a través de una lupa. La transmisión de imágenes se utiliza mucho en instrumentos médicos para examinar el interior del cuerpo humano y para efectuar cirugía con láser, en sistemas de reproducción mediante facsímil y fotocomposición, en gráficos de ordenador o computadora y en muchas otras aplicaciones.

SuperCable : es una empresa transnacional de servicios de telecomunicaciones en voz, video y data que ha ofrecido televisión por cable en Venezuela desde comienzo de los años 90. Con su tecnología de transmisión de datos en fibra óptica, comunicaciones digitales y compresión de datos, se encuentra en capacidad de incursionar en el vasto mercado de las telecomunicaciones.

Son los únicos capaces de brindar tecnología de punta, la cobertura geográfica más amplia, la mayor eficiencia de la inversión publicitaria, y servicio personalizado.

La totalidad de la red de SuperCable es de fibra óptica que permite la transmisión de banda ancha. El sector de Banda ancha de Motorola, empresa líder a nivel global en soluciones integrales de comunicaciones y soluciones embebidas, es el socio tecnológico de Supercable en el desarrollo de su sistema de televisión por cable, el que será transformado en un paquete de servicios interactivos en los próximos años. El acuerdo incluye la implementación de una plataforma de cable digital interactivo en Bogotá y en Caracas.

CONCLUSIONES

Después de efectuada la presente investigación se obtienen las siguientes conclusiones:
1.- La historia de la comunicación a través de la Fibra Óptica revolucionó el mundo de la información, con aplicaciones, en todos los órdenes de la vida moderna, lo que constituyó un adelanto tecnológico altamente efectivo.

2.- El funcionamiento de la Fibra Óptica es un complejo proceso con diversas operaciones interconectadas que logran que la Fibra Óptica funcione como medio de transportación de la señal luminosa, generando todo ello por el transmisor LED"S y láser.

3.- Los dispositivos implícitos en este complejo proceso son: transmisor, receptor y guía de fibra, los cuales realizan una importante función técnica, integrados como un todo a la eficaz realización del proceso.

4.- La Fibra Óptica tiene como ventajas indiscutibles, la alta velocidad al navegar por internet, así como su inmunidad al ruido e interferencia, reducidas dimensiones y peso, y sobre todo su compatibilidad con la tecnología digital.

Sin embargo tiene como desventajas: el ser accesible solamente para las ciudades cuyas zonas posean tal instalación, así como su elevado costo, la fragilidad de sus fibras y la dificultad para reparar cables de fibras rotos en el campo.

5.- Actualmente se han modernizado mucho las características de la Fibra Óptica, en cuanto a coberturas más resistentes, mayor protección contra la humedad y un empaquetado de alta densidad, lo que constituye un adelanto significativo en el uso de la Fibra Óptica, al servicio del progreso tecnológico en el mundo.

WILL.TELECOM@hotmail.com


SONAR

Publicado el 1 de Marzo, 2006, 14:33. en General.
Referencias (0)

El Sonar

Origen de la palabra Sonar

Proviene del inglés "Sound Navigation and Ranging". Es el equipo, medio y propiedades que sirve al estudio y aprovechamiento de la propagación del sonido en el agua y su utilización para determinar la ubicación, características, distancias, velocidad, etc. de objetos, formaciones rocosas, como así también costas y lecho submarino. No debemos olvidar su utilización para las comunicaciones y la observación. El sonar reemplaza al radar en el agua, ya que este último opera a través de ondas electromagnéticas que, debido a la alta conductividad del medio acuático, se pierden sin lograr su objetivo. El sonar se vale de ondas acústicas, de fácil propagación en el medio antes nombrado.

Las ondas electromagnéticas son transversales mientras que las acústicas son longitudinales, por tanto las primeras pueden polarizarse mientras que las segundas no; la velocidad de propagación en las primeras varía inapreciablemente con las características cambiantes del medio, mientras que el sonido aumenta su velocidad a medida que decrece la compresibilidad del medio, lo que tiene una gran incidencia en el aspecto de la propagación. En el mar la compresibilidad es función de variables como la salinidad, la temperatura y la presión.

Antecedentes históricos

Una de las primeras referencias al hecho de que el sonido se propaga en el mar se debe a Leonardo Da Vinci, que en 1490 escribía: "Si paras tu barco e introduces el extremo de un tubo en el agua, y aplicas el oido al otro extremo, oirás barcos que se encuentran a gran distancia de tí".
      Este primer ejemplo de sistema SONAR tiene en su sencillez, los principios básicos de un sonar pasivo actual:

Todos los barcos al navegar producen ruido aunque no sean de motor. Se detiene el barco propio para reducir el nivel de ruidos.

Se introduce un tubo en el agua para transmitir las ondas acústicas desde el medio acuático al medio aéreo para ser captadas por el oído humano.


      La primera medición de la velocidad del sonido en el agua fue obtenida en 1827 por el físico suizo Daniel Colladon y el matemático francés Charles Sturn en el lago Ginebra. El resultado de su medida fue de 1434 mts./seg. que es muy precisa para la época en que se realizó dicha medición.
      Durante el siglo XIX y tras la enunciación del cálculo infinitesimal Fourier formula las "series trigonométricas infinitas" y Ohm, aplica las mismas para descomponer sonidos reales en series de tonos puros. Este es un importantísimo descubrimiento ya que es la base del actual Análisis en Banda Estrecha que permite la identificación precisa de la fuente que genera el ruido.
      En 1440 se descubre el fenómeno de la "magnetoestricción" que provoca el cambio de la forma de algunos materiales cuando son atravesados por un campo magnético y en 1880 Jacques y Pierre Curie descubren la "piezoelectricidad", que es la propiedad de algunos cristales de desarrollar cargas eléctricas en varias de sus caras al someterlos a presión.
      En 1912 Fesseden desarrolla el primer emisor submarino capaz de trabajar como transmisor y receptor en el margen de frecuencia entre 500 y 1000 Hz. En 1914 trás la pérdida del TITANIC demostró la utilidad de su invento midiendo la distancia a un iceberg situado a 2 millas de distancia. La posterior aplicación de los amplificadores electrónicos a las seqales captadas hizo que los sistemas no tuvieran que depender exclusivamente de la sensibilidad del oido humano.
      En 1915 Lord Rayleigh descubre que el oido humano es capaz de determinar la dirección de un fuente sonora por la diferencia de fase o tiempo de la onda sonora al llegar a ambos oidos, y se desarrollan sensores biaurales para determinar la dirección de la que proviene el sonido. Este sistema en funcionamiento en los submarinos alemanes causó graves pérdidas a los aliados. El éxito obtenido propició la investigación con sistemas ópticos, térmicos y magnéticos, siendo el resultado más favorable el obtenido mediante el sonido.
      En 1917 el físico francés Paul Lagevin usando un sistema piezoeléctrico de cuarzo sintonizado a una fecuencia de 38 KHz., consigue formar un haz de energía capaz de determinar la dirección y la distancia a un objeto sumergido, llegando a detectar un submarino a 1500 mts. Por el mismo periodo científicos ingleses dirigidos por Boyle trabajan en el secreto proyecto ASDIC para la obtención de un sistema eficaz de detección submarina.
      Los primeros estudios sobre propagación se llevaron a cabo por científicos alemanes en 1919 que descubren la influencia de la temperatura, salinidad y presión en la velocidad del sonido y el comportamiento de los rayos sonoros al atravesar estratos de distinta velocidad de propagación.
      El desarrollo de la aústica submarina se ralentizó considerablemente en el periodo entre las dos Guerras Mundiales. Se había hecho un notable esfuerzo para reducir el nivel de ruido radiado por los buques, por lo cual las investigaciones se centraron en los sistemas activos.
        En 1925 la empresa Submarine Signal Company presenta comercialmente el primer sondador, aparato capaz de determinar la distancia al fondo desde la superficie. Debido a que el tratado de Versalles no permitía a la Marina Alemana tener submarinos ni aeroplanos, los estudios se centran en la aplicación del SONAR como un sistema defensivo. El detenido estudio de los ruidos emitidos por la maquinaria, hélice y ruido hidrodinámico permite el desarrollo de nuevos tipos de barcos. El resultado de su trabajo fué el GHC, un equipo de escucha que usaba la técnica de formación de haces, esto es, el ruido proveniente de varios hidrófonos se pone en fase retardando las de los adyacentes al elegido como eje para formar una sola vía de audición. Uno de estos equipos se montó en el crucero "Prinz Eugen" y fué decisivo para la evasión del mismo de los masivos ataques de torpedos que después sufrió.
        Desde el punto de vista científico el mayor logro fué la obtención de conocimientos sobre el caprichoso comportamiento de la propagación del sonido en la mar. Las observaciones realizadas por Steinberger sobre la variación del alcance con la temperatura indujo a la invención de un aparato capaz de medir la temperatura del agua a distintas profundidades. En 1937 Spilhaus presenta este aparato llamado "Batitermógrafo".
        Durante la Segunda Guerra Mundial se da un periodo febril en la investigación de nuevas tecnologías y se retoma la acústica. En EE.UU. se crea el NDRC (National Defense Research Commitee) responsable entre otros del proyecto Manhattan con el que se fabricó la bomba atómica. La sección sexta del NDRC realiza un amplísimo programa de acústica submarina llevado a cabo principalmente por la Universidad de California, el Laboratorio de Electrónica Naval de San Diego y la Institución Oceanográfica de Woods Hole. La publicación al finalizar la contienda de los estudios realizados constutuyen aún hoy en día la base de la acústica submarina.
        Al final de la Segunda Guerra Mundial y debido a la aparición de la Guerra Fría las investigaciones continúan en todos los campos. Entre 1944 y 1955 los trabajos de Shannon en EE.UU. y de Gabor y Woodward en Gran Bretaña establecen las bases de la teorí de la información, que aplicada junto a los nuevos desarrollos electrónidos de estado sólido permite desarrollar equipos muy precisos en cuanto a la discriminación del contacto, su distancia y la velocidad a la que navega.
        Los trabajos de eminentes físicos como Knudsen, Wenz, Marsh, Urick y otros identifican los orígenes y características de las distintas fuentes de ruido ambiental existente en el océano. Los mayores logros en este periodo son:

El descubrimiento del motivo de la atenuación a frecuencias inferiores a 100 Hz.

Determinación experimental de la absorción para frecuencias entre 100 Hz. y 1 Mhz..

Medida de las pérdidas por absorción por rebote en el fondo.

Clasificación de las pérdidas y características del canal sonoro profundo y superficial.

Conocimiento de la propagación en aguas polares.

Descubrimiento y esplicación de las zonas de convergencia.

Obtención de diagramas de rayos sonoros y predicción de alcances.

Medida con gran exactitud de la velocidad del sonido en el agua.


        La aparición de submarinos nucleares con capacidad de lanzar misiles nucleares de largo alcance hace cambiar la situación táctica, ya no se trata de detectar un submarino en las proximidades de un convoy sino de vigilar grandes extensiones. Esto implica la vuelta a la detección pasiva que permite mayores alcances. Se comienza a desarrollar grandes redes de escucha submarina tanto fijas como remolcadas por los buques, que además permite alejar la escucha del ruido propio; de este tipo son los sistemas SOSUS (SOund SUrveillance System), TACTAS (TACtical Towed Array Sonar) y SURTASS (SURveillande Towed Array Sensos System) entre otros, utilizados en la actualidad.
        Durante los últimos años se ha intensificado el estudio de bajas frecuencias para detección a grandes distancias y se ha potenciado la reducción al máximo del ruido emitido por los buques. Aparece el análisis espectral de las frecuencias emitidas por un contacto para permitir su exhaustiva clasificación, técnica denominada LOFAR (LOw Frequency Analisys and Recording). La gran cantidad de señales existente en el mar, tanto de origen humano como biológico que proporciona un sonar moderno es gigantesca, por tanto la clave es descubrir un método de proceso que permita eliminar la información no necesaria; para ello se hace uso masivo de la informática y se emplean técnicas de inteligencia artificial.
        Nuevas investigaciones realizadas por el SACLANCEN, órgano de investigación dependiente de la OTAN se dirigen al uso de sonares activos de muy baja frecuencia, debido principalmente al aumento del nivel de ruido en la mar y a la contrucción de barcos cada vez más silenciosos.

Tipos de Sonar

Existen dos tipos de Sonar: el activo y el pasivo.


        Se llama Sonar Activo al equipo que emplea para detectar objetos bajo el agua el eco que devuelve dicho objeto al incidir sobre él las ondas acústicas emitidas por un transmisor. El Sonar Activo es por tanto similar al radar. Empleando el Sonar Activo se emite un tren de ondas acústicas con una determinada potencia al agua. Un objeto sumergido sobre el que incidan estas ondas, reflejará parte de ellas que volverán hacia el foco emisor. La energía recibida proveniente del objeto es solo una muy pequeña parte de la que se emitió y el camino que recorren las ondas es el doble de la distancia entre el emisor y el objeto.

El Sonar Pasivo se limita a escuchar el sonido que proviene de los objetos que se encuentran sumergidos.Estos dispositivos reciben directamente el ruido producido por el objeto y el camino que recorre la onda es la distancia existente entre el objeto y el receptor del ruido.

El alcance está limitado por un gran número de factores de factores siendo los más importantes la frecuencia de la onda y la efectividad del medio en el que se propaga la energía. Cuanto más baja es la frecuencia, mayor es el alcance que se obtiene. 
        Con ambos tipos es posible determinar la dirección en la que se encuentra el objeto, pero el sonar activo posibilita obtener la distancia midiendo el tiempo que transcurre entre el momento en que se emite la radiación y el instante en que se recibe el eco si se conoce la velocidad a la que el sonido se propaga en el agua. El sonar pasivo no contempla esa posibilidad, aunque en la actualidad existen medios para obtener la distancia a un objeto midiendo la diferencia de fase en la que las ondas llegan a varios receptores separados entre sí, pero son más complejos y menos fiables.
        En general el sonar activo y el pasivo se complementan para efectuar la detección y el análisis de objetos sumergidos y tanto los submarinos como los buques de superficie con capacidad antisubmarina emplean ambos tipos de forma conjunta.

Usos del SONAR.

El uso principal de los dispositivos SONAR es de carácter militar y naval por excelencia. Las modernas unidades de las Marinas Militares con capacidad antisubmarina de todos los paises desarrollados disponen de equipos tanto activos como pasivos para realizar la detección, clasificación, seguimiento y ataque de submarinos. Estos a su vez disponen de equipos para la detección de buques de superficie y de contramedidas para evitar o retardar su detecció por dichas unidades. Los dragaminas mecánicos se reemplazan por modernos cazaminas dotados de equipos SONAR de gran precisión y resolución capaces de localizar objetos sumergidos y visualizar su forma o estructura para determinar si se trata de una mina.
        El incesante avance de la electrónica y de la informática aplicada a la acústica submarina ha hecho extender las capacidades de los equipos al análisis del ruido radiado por los barcos, obteniendo así la denominada "firma acústica" que permite identificar cada unidad de forma unívoca al igual que una huella dactilar identifica a una persona; pero a diferencia de las huellas dactilares que son invariables, las firmas aústicas cambian con el tiempo. Esto es debido a que dichas "firmas" proceden en su mayor parte del ruido radiado por la maquinaria a bordo de los buques y dicho ruido varía a su vez con las modificaciones, reparaciones y fatiga de las piezas que la componen. Esto obliga a mantener una información actualizada de inteligencia de unidades navales.
        Gran parte de la tecnología se ha transferido a usos civiles. Es bastante común el uso de sondadores en barcos de todo tipo, medidores de espesor de capas de hielo y otros dispositivos de ayuda a la navegación que usan el sonido o ultrasonido. Otra aportación significativa son los detectores de pesca que permiten la localización de bancos de peces. Los buscadores de tesoros poseen poderosos equipos para la localizació de barcos hundidos.
        Sensores de ultrasonidos se aplican para sistemas de alarma y para realizar mediciones precisas y máquinas de ecografía se emplean a diario para ayuda al diagnóstico en medicina.

Funcionamiento

Trasductores

Un transductor es cualquier dispositivo capaz de convertir un tipo de energía en otra. Los transductores empleados en acústica convierten energía eléctrica en acústica e inversamente. Así pueden compararse los transductores acústicos empleados bajo el agua con los micrófonos y altavoces usados en el aire pero con las siguientes diferencias fundamentales:

  • Un transductor submarino necesita 60 veces más potencia para proyectar la misma cantidad de energía que un altavoz equivalente usado en el aire.

  • La presión ejercida por el medio acuático es mayor que la ejercida por el aire y además aumenta con la profundidad, lo que obliga a dotar a los transductores de una cierta resistencia mecácanica.

Los transductores que trabajan el el agua y convierten el sonido en electricidad se llaman HIDROFONOS, los que realizan el proceso contrario se llaman PROYECTORES. Muchas veces un mismo transductor puede realizar ambos procesos. Las cualidades necesarias en un transductor son la LINEALIDAD (proporcionalidad entre la señal eléctrica y la acústica) y REVERSIBILIDAD (igualdad de movimiento en los dos sentidos de conversión de la energía). Cuando un transductor no posee intrínsecamente linealidad se precisa aplicar una determinada polarización para conseguir este efecto.

Dependiendo del funcionamiento teórico del sistema los transductores se clasifican según su origen en:

Explosivos:

Son emisores de señal que generan en el agua mediante una explosión o deflagración un impulso de corta duración y gran ancho de banda. Se aplican en prospección de hidrocarburos, eco-localización marina, posicionamiento y guerra submarina.

Cañones y chorros de gas o agua:

Son emisores de bajas o muy bajas frecuencias, que funcionan liberando de forma rápida aire, gas, vapor de agua o agua a presión. Los de aire o gas tiene el efecto indeseable de la formación de burbujas; su margen de funcionamiento está entre los 4 Hz. y 1 Khz.. Un caso particular este tipo son los que que se forman a partir de un constreñimiento de la conducción, son los llamados "hidrodinámicos", que cubren un margen de frecuencia entre 10 Hz. y 30 KHz.

Descargas eléctricas de alta potencia o SPARKERS:

Emisores que generan la señal acústica a través de la descarga entre dos electrodos de un alto potencial eléctrico, que es capaz de vaporizar el agua que rodea a los electrodos y crea una burbuja gaseosa. Su principal inconveniente es la formación de burbujas de grandes dimensiones que interfieren el ancho de banda útil pero que puede paliarse aumentando el número de electrodos y la variación de la frecuencia emitida con la profundidad.

Dispositivos hidraúlicos:

Emisores que generan una onda continua en lugar de un impulso mediante un motor que mueve hidraúlicamente un pistón para producir el desplazamiento de un diafragma. El espectro de frecuencias es muy bajo, nunca superior a 1 KHz. Presentan el inconveniente de ser de gran dimensión y peso.

Electrodinámicos:

Emisor cuyo funcionamiento es el mismo que el de un altavoz aéreo. Su principal inconveniente es la débil intensidad acústica generada.

Electrostáticos:

Son emisores-receptores cuyo funcionamiento es similar al micrófono de condensador. Presentan una gran linealidad por lo que sulen usarse como dispositivo calibrador.

Piezoeléctricos:

Emisores-receptores basados en la propiedad de algunos materiales naturales como la Sal de Rochelle el cuarzo y el ADP (fosfato diádico de amonio) de adquirir una carga eléctrica entre sus caras si son sometidos a un esfuerzo mecánico e inversamente. Presentan el inconveniente de ser muy sensibles al calor y que algunos como la Sal de Rochelle son solubles en agua, por lo que se usan manteniéndolos en un baño de aceite. Tienen buen rendimiento, pero admiten solo potencias muy bajas.

Electroestrictivos:

Emisores-receptores con las mismas cualidades que los piezoeléctricos si antes son convenientemente polarizados, es decir, se añade una señal eléctrica junto con la se entrada de forma que la variación de la intensidad acústica dependa linealmente de la señal de entrada exclusivamente. El material que forma el transductor de obtiene a partir de sustancias policristalinas isotrópicas que se calientan por encima del punto de Curie para liberar sus enlaces moleculares, sometiéndolos a una tensión de polarización y dejándolos enfriar lentamente para obtener un cristal anisótropo (su comportamiento al someterlo a presión o tensión no es el mismo en todas sus caras). Debido a ésto se usa la cara del cristal con mayor rendimiento y se intenta anular el efecto de las otras caras. Son materiales de este tipo el Titanato de Bario y el Zirconato de Titanio. Son muy útiles en acústica, ya que pueden moldearse de muy distintas formas y agruparse para obtener la directividad y el modo de funcionamiento más adecuado. Su principal inconveniente es la posibilidad de "despolarización" que puede producirse por alcanzar elevadas temperaturas, ser sometidos a un fuerte campo eléctrico o a sufrir grandes esfuerzos mecánicos.

Magnetoesctrictivos:

Emisores-receptores construidos con materiales que tienen la propiedad de variar su tamaño al someterlos a un campo magnético y reciprocamente de variar su permeabilidad si se modifican sus dimensiones. Son materiales de este tipo el Niquel, Cobalto, algunas aleaciones de Hierro y ciertas ferritas. La relacción existente entre el campo magnético y las dimensiones del material no es lineal, por lo cual en la mayoría de los casos se precisa la superposición de un fuerte campo magnético estático para conseguir la linealidad. Su principales inconvenientes son el tamaño del núcleo y la limitación de potencia por lo cual se emplean en equipos de pequeño tamaño y poca potencia. Las mayores ventajas son su gran resistencia mecánica y su pequeña necesidad de mantenimiento.

Otros tipos:

Se experimenta con nuevos tipos de materiales como: Piexopolímeros, como el PVF2 usado comercialmente en altavoces; Sensores acusto-ópcticos, en los que se utiliza el LASER y la fibra óptica y funcionan a modo de interferómetro; Aleaciones de Tierras Raras y Hierro, Vidrios metálicos y Ferrofluidos que funcionan como los magnetoestrictivos con mayor rendimiento y los Composites, contruidos con pequeñas piezas de piezocerámica embebidas en una base de silicona o poliuretano.


      Un transductor aislado en general solo se utiliza en aplicaciones de investigación o cuando se trabaja con frecuencias altas. Normalmente los equipos de SONAR usan un conjunto de transductores dispuestos en distintas configuraciones geométricas a fin de obtener mejores resultados. Las principales ventajas de esta disposición son:

  • Mayor sensibilidad tanto activa como pasiva realizando conexiones en serie para obtener mayor voltaje o en paralelo para obtener más corriente.

  • Mayor direccionalidad que permite discriminar entre el ruido, generalmente isotrópico, es decir de la misma intensidad en todas direcciones, y la parte de señal que interese.

  • La avería de varios elementos no afecta radicalmente al comportamiento del conjunto.

  • Es posible formar un lóbulo de mayor respuesta y orientarlo electrónicamente sin necesidad de usar dispositivos mecánicos.

transductor del tipo "TONPILTZ".

Sonar Pasivo

El propósito del sonar pasivo es la captación de los sonidos emitidos por objetos sumergidos facilitando la información precisa para obtener la dirección del objeto, analizar su movimiento y posibilitar su identificación.
      Un moderno sistema de sonar pasivo está formado esencialmente por tres subsistemas especializados dedicados respectivamente a:

  • Captación de la señal acústica.

  • Proceso de la señal.

  • Lectura y medición de la señal procesada.


      La captación de la señal se realiza mediante una base acústica, formada habitualmente por conjunto de hidrófonos, dispuestos en una determinada configuración que permita obtener los mejores resultados para los que se pretende usar el sistema. Generalmente la disposición de los mismos se realiza según el margen de frecuencias a obtener y las características de la plataforma sobre la que se montará el equipo. Así el margen de frecuencias más alto en el que no afecta demasiado el ruido producido por la plataforma requiere dispositivos montados sobre ella en forma cilíndrica o esférica protegidos por estructuras que eliminen en la mayor medida el ruido hidrodinámico que se produce por el desplazamiento de la plataforma en el agua; en el caso de bajas frecuencias, a las que si les afecta el ruido de la propia plataforma se suelen emplear ARRAYS que es una disposición lineal de los hidrófonos que permite que sean remolcados por la plataforma a suficiente distancia como para eliminar el indeseado ruido.
      La señal captada por la base acústica debe sufrir un proceso para facilitar su interpretación. Este proceso incluye una amplificación previa de la débil señal captada, un filtrado para eliminar las frecuencias cuyos valores no esten en el margen necesario y un tratamiento adecuado. En general este tratamiento comprende la formación de una vía de audio que mediante un sistema de orientación electrónico permita conocer la dirección de la que proviene el sonido, y su escucha por un operador y una digitalización que permita su presentación visual y su registro gráfico.
      La señal audio procesada se usa como entrada al subsistema de lectura y medición que permite la escucha de la misma por un operador, su registro en magnetófonos y la posibilidad de conexión con otros equipos especializados que permitan el análisis a fin de obtener información que permita la identificación del objeto. Asimismo la señal digitalizada se suministra a unidades de presentación visual, registro gráfico y otras unidades.
    
      Un diagrama en bloques representativo de un equipo hidrofónico actual sería:

Sonar Activo

El SONAR activo basa su funcionamiento en la detección del eco devuelto por un objeto sumergido al incidir sobre él un tren de ondas acústicas emitidas por un proyector, con el propósito de detectar objetos sumergidos y obtener información de su dirección, distancia y analizar su movimiento.
      Los sistemas de SONAR activo actuales tiene también capacidad de funcionar como SONAR pasivo con ciertas limitaciones impuestas por la superior dureza del transductor y el margen más estrecho de frecuencias que es capaz de recibir.
      Un sistema moderno de SONAR activo esta compuesto esencialmente de los siguientes subsistemas:

  • Base acústica.

  • Selección y conmutación.

  • Emisor.

  • Receptor.

  • Lectura y medición de la señal recibida.


      La base acústica está formada generalmente por un solo transductor con capacidad tanto para transformar la señal eléctrica en acústica para emitirla al agua como para recibir señal acústica del agua y transformarla en eléctrica. Debido a la posibilidad de usar el sistema como SONAR pasivo o activo dispone de un sistema de selección encargado de conducir la señal proveniente del transductor al receptor adecuado, bien al proceso de sonar pasivo, o bien al receptor de proceso del eco.
      El receptor pasivo funciona de forma idéntica al del sonar pasivo. El receptor activo sin embargo, realiza un proceso distinto, ya que interesa solo un pequeño ancho de banda centrado en la frecuencia de transmisión. Esto es debido a que el eco devuelto por los objetos sobre los que incide el frente de ondas emitido, reflejará una parte de la energía cuya intensidad en muy pequeña y su frecuencia estará desplazada de la emitida solo un poco. Además la ganancia del amplificador receptor es variable en el tiempo, de forma que el nivel de amplificación aumenta con el tiempo en que se realizó la emisión para que los ecos devueltos por los objetos cercanos, más intensos no anulen a los más lejanos y débiles. El receptor activo realiza asimismo un tratamiento de la señal de dos formas, una en la formación de un canal de audio que partiendo de la frecuencia recibida, y trás una detección eléctrica es heterodinada a una frecuencia que facilite la escucha del operador y otra en la que la señal se digitaliza y es usada en el sistema de presentación y registro gráfico.
      El emisor se encarga de formar el impulso eléctrico que se aplicará al transductor y que una vez convertido en energía acústica se conoce con el nombre de "PING SONAR". El pulso se forma a partir de un oscilador que genera una onda continua que se aplica a un dispositivo de disparo. El pulso es amplificado y aplicado al transductor por medio de un adaptador de impedancia y el circuito de conmutación.
      
      El subsistema de selección y conmutación tiene como misión seleccionar el receptor adecuado al modo de SONAR usado, activo o pasivo y conmutar el transductor cuando el modo de trabajo es activo para unirlo al emisor en caso de transmitir un pulso SONAR o al receptor después de realizar la emisión.
      El funcionamiento activo está formado por ciclos consecutivos de transmisión y recepción. En el instante de la emisión del "PING", el receptor no está unido al transductor y por tanto se encuentra bloqueado. En ese instante arrancan los circuitos de tiempo que gobernarán la ganancia variable del amplificador de recepción y los circuitos de presentación y registro. Al finalizar la transmisión, se acopla el transductor al receptor activo que posicionará los ecos recibidos en función del tiempo transcurrido desde la emisión y de la dirección en que se encuentran. Conociendo la velocidad del sonido en el agua, puede conocerse así la distancia al eco. Cada ciclo termina al transcurrir el tiempo de recepción, generalmente seleccionado por el operador del equipo entre unos valores fijos proporcionados por el fabricante

Sonido

Se dice que hay un sonido cuando una perturbación mecánica se propaga por un medio material y llega a un receptor con capacidad para producir en él una sensación. Por tanto para que exista sonido deben existir:

  • Un elemento capaz de producir una perturbación mecánica,

  • Un medio capaz de propagar la perturbación.

  • Un oyente sobre el cual se produce una sensación auditiva.


      No obstante se considera un fenómeno acústico cuando la perturbación y el medio reunen las características, para que, en caso de existir un oyente percibiera la sensación.
      La misma definición da a entender que el sonido puede ser detectado y evaluado mediante la medida de alguna de las magnitudes físicas del medio que la perturbación haga variar con respecto a su posición de equilibrio. Generalmente la magnitud usada es la presión.
      Para que exista una propagación de la perturbación en un medio, éste debe tener dos propiedades:

Inercia:

Permite a un elemento del medio transferir energía al elemento contiguo, y está relacionada con la densidad del medio.

Elasticidad:

Produce una fuerza en el elemento desplazado que tiende a llevarlo a su posición de equilibrio.


      El sonido cualquiera que sea la naturaleza de la fuente que lo produce se origina por una onda de presión producida por una fuente vibratoria, debido a esto, el movimiento de las partículas del medio se estudia con las características del movimiento ondulatorio.
      Desde el punto de vista psíquico el sonido se caracteriza por tres cualidades:

Intensidad:

Distingue un sonido fuerte de uno débil.

Tono:

Distingue un sonido grave de uno agudo.

Timbre:

Distingue dos sonidos de la misma intensidad y tono, pero producido por distintas fuentes.

Ondas

En cuanto al sonido se pueden considerar tres tipos de ondas.

Ondas planas:

Son las que se forman en un tubo que contiene un medio elástico como aire o agua, y que en uno de sus extremos tiene un pistón que se mueve alternativamente hacia delante y hacia atrás. La posición del pistón en el tiempo puede describirse mediante una función sinusoidal. El movimiento alternativo del pistón hace que el aire se comprima y expanda y el movimiento de las partículas se propaga a lo largo del tubo. Esta serie de compresiones y expansiones constituyen un tren de ondas cuya función característica es también sinusoidal, que se propaga a lo largo del tubo a una velocidad que depende del medio de propagación.

Debe notarse que solo se propaga la vibración, es decir, las partículas del medio solo vibran alrededor de su posición de equilibrio.
     
Las ondas sónicas producidas por el pistón son PLANAS porque de desplazan en una sola dirección y transmiten la vibración en el mismo instante a todas las particulas del plano.

Ondas cilíndricas:

Si la superficie de produce la perturbación es un cilindro cuya superficie está vibrando, los frentes de onda son también superficies cilíndricas paralelas a la fuente.

Ondas esféricas:

Se producen cuando la fuente tiene forma esférica o es una partícula que transmite su vibración por igual en todas direcciones. El frente de onda está formados por esferas concéntricas.

Las ondas sonoras en el mar son de este último tipo.

Propiedades de las Ondas

La descripción matemática del movimiento ondulatorio describe la situación de una curva que "viaja" o se propaga, y que en una situación ideal lo hace sin deformación, a lo largo de un eje. Si consideramos que en el caso más complejo, las ondas son esféricas, podemos evaluar el movimiento de una sola de las partículas y extender el resultado a todas direcciones.
      En un movimiento ondulatorio se propagan dos magnitudes físicas: MOMENTO y ENERGIA, es decir, no se propaga la materia sino su estado de movimiento.
      Se deben considerar las siguientes propiedades:

Frecuencia:

Número de veces que la perturbación oscila entre valores positivos y negativos respecto de su posición de equilibrio, por unidad de tiempo. Su unidad de medida es el HERZIO y se designa con la letra f.

Periodo:

Es la inversa de la frecuencia y se define como el tiempo necesario para completar un ciclo completo, entendiendo como ciclo el conjunto de valores que toma la onda desde que se separa de la posición de equilibrio hasta que vuelve a ella sin repetir ninguno. Se mide en segundos y se designa con la letra T.

Longitud de onda:

Es la distancia entre puntos análogos de dos ciclos sucesivos. Se mide en metros y se designa con la letra griega Lambda.

Intensidad:

Es la energía que fluye por unidad de superficie y unidad de tiempo. Se mide en Watios por metro cuadrado y se representa con la letra I. En la figura se presenta como la amplitud de la onda. La intensidad tiene distinta formulación para distintos tipos de ondas. Si se consideran ONDAS PLANAS la intensidad de la onda en un medio ideal en el que no se produzcan pérdidas no varía al alejarse la onda de la fuente, sin embargo en el caso de las ONDAS CILINDRICAS y ESFERICAS la distancia de la onda a la fuente si es importante, ya que la superficie que atraviesa la misma cantidad de energía es mayor cuanto mayor es la distancia a la fuente generadora de la vibración. La intensidad acústica responde a la fórmula:

I = p2/z

I: Intensidad acústica.
p: Presión.
z: Resistencia del medio al movimiento de la onda.


      La velocidad de propagación del sonido en un medio es directamente proporcional a la presión e inversamente proporcional a la densidad del medio en el que se propaga. Esto indica que la velocidad del sonido varía al modificarse las condiciones del medio por acción de otros agentes.

Cuando la fuente de ondas y el receptor están en movimiento relativo respecto al medio material en el que se propaga la onda la frecuencia de las ondas recibidas es distinta de las emitidas por la fuente. Todos hemos observado este efecto cuando parados en una carretera oimos un coche acercarse y la sensación sonora es más grave cuando está lejano y se hace más aguda conforme se acerca.
     Este fenómeno recibe el nombre de EFECTO DOPPLER en honor al físico C. J. Doppler, quien lo observó por primera vez.
     Suponiendo que hay una fuente sonora moviéndose hacia la derecha, como en la figura, con velocidad Vs a través de un medio en reposo y observando la fuente en distintas posiciones, 1, 2, 3 y 4, se puede apreciar que después de un tiempo T, contado a partir de la posición 1, las ondas emitidas en las sucesivas posiciones ocupan las esferas 1, 2, 3 y 4, que no son concéntricas. La separación entre las ondas es menor en el sentido en el que la fuente se mueve. Para un receptor a uno u otro lado, corresponde a una menor o mayor longitud de onda, y por tanto, a una mayor o menor frecuencia.

Cuando la fuente de ondas y el receptor están en movimiento relativo respecto al medio material en el que se propaga la onda la frecuencia de las ondas recibidas es distinta de las emitidas por la fuente. Todos hemos observado este efecto cuando parados en una carretera oimos un coche acercarse y la sensación sonora es más grave cuando está lejano y se hace más aguda conforme se acerca.
     Este fenómeno recibe el nombre de EFECTO DOPPLER en honor al físico C. J. Doppler, quien lo observó por primera vez.
     Suponiendo que hay una fuente sonora moviéndose hacia la derecha, como en la figura, con velocidad Vs a través de un medio en reposo y observando la fuente en distintas posiciones, 1, 2, 3 y 4, se puede apreciar que después de un tiempo T, contado a partir de la posición 1, las ondas emitidas en las sucesivas posiciones ocupan las esferas 1, 2, 3 y 4, que no son concéntricas. La separación entre las ondas es menor en el sentido en el que la fuente se mueve. Para un receptor a uno u otro lado, corresponde a una menor o mayor longitud de onda, y por tanto, a una mayor o menor frecuencia.

 La relación entre la frecuencia emitida por la fuente y la recibida por el receptor, suponiendo que el medio está inmóvil, y cuando el receptor está en la dirección de propagación, viene dada por la fórmula:

Fr = Fe-Fe . Ver

Fr: Frecuencia recibida.
Fe: Frecuencia emitida.
Ver: Velocidad del receptor respecto a la fuente.

En el caso de que el receptor no se encuentre en la dirección de propagación la fórmula se convierte en:

Fr = Fe-Fe . Ver . cos ß

ß: Angulo entre el receptor y la dirección de propagación.

Velocidad del Sonido en el Mar

La velocidad de propagación del sonido en la mar es el parámetro más importante que se debe conocer para saber el comportamiento del sonido en este medio. En realidad lo que interesa es el conocimiento de la CELERIDAD, que representa solo el valor escalar de la velocidad y no su dirección ni su sentido, ya que al referirnos al sonido en la mar, la propagación se realiza mediante ondas esféricas y en todas direcciones.
      La celeridad del sonido en la mar responde a la fórmula:

c: Celeridad.
u: Coeficiente de compresibilidad.
d: Masa específica.
      Pero el coeficiente de compresibilidad del medio varía con la profundidad, mientras que la masa específica depende de la temperatura y salinidad del agua.
      Se puede ver así, que la celeridad con la que el sonido de propaga en el mar no es uniforme, y el comportamiento de los rayos sonoros, así se designa a las trayectorias que siguen los frentes de ondas, depende de este hecho.
      Así pues hay tres factores determinantes en la celeridad que son: TEMPERATURA, SALINIDAD y PRESION. El grado de influencia de los mismos en el valor de la celeridad ha sido objeto de investigación durante muchos años y se ha acometido en sentido teórico, mediante formulación matemática y en sentido experimental, lo que ha permitido obtener fórmulas empíricas a partir de las observaciones realizadas.
      El primer resultado práctico fué la fórmula de DEL GROSSO en 1960, seguido del de WILSON y perfeccionado por MACKENZIE en 1981 cuyo resultado es:

c = 1448,96 + 4.591 T - 0,05304 T2 + 0,0163 D + 1,34 (S-35)

    • c: Celeridad en mts/seg.
      T: Temperatura en :C. Entre 0 y 30.
      D: Produndidad en metros. Entre 0 y 8.000.
      S: Salinidad en partes por mil. Entre 30 y 40.


      A pesar de que existen otros factores que pueden alterar la celeridad, pueden considerarse irrelevantes en comparación con los ya citados.
      Como consecuencia de la variación de la celeridad en el plano vertical, podemos decir que el mar se haya estratificado en zonas, en cada una de las cuales los rayos sonoros terdrán distinto comportamiento. Para estudiar las estratificaciones se les asigna un valor por cada una de las variables que intervienen llamados GRADIENTES, y que se obtienen mediante la relación entre la diferencia de valores de la variable y la diferencia de valores en la función.
      El GRADIENTE DE TEMPERATURA a presión y salinidad constantes es de +3 mts./seg. por :C de aumento.
      El GRADIENTE DE SALINIDAD a temperatura y presión constantes es de +1,2 mts./seg. por cada 1 por mil de aumento.
      El GRADIENTE DE PRESION a temperatura y salinidad constantes es de 0,016 mts./seg. por cada metro de aumento de profundidad.
      Representando en un gráfico los valores dos a dos de celeridad-temperatura, celeridad-salinidad y celeridad-presión, las estratificaciones quedan definidas por los puntos en los que la gráfica sufre una variación brusca.

Propagación del Sonido en el mar

La superficie radiante de un emisor submarino al vibrar, induce a las partículas del medio a desplazarse de sus posiciones de reposo. Dentro del límite de elasticidad del medio, las vibraciones del emisor, pueden transmitirse a grandes distancias, ya que las partículas adyacentes provocan perturbaciones sucesivas de modo que la señal emitida se transmite en forma de ondas que se alejan de la fuente.
     La ecuación diferencial fundamento de la acústica ondulatoria que gobierna la propagación de las ondas es:

en las que c es el valor de la celeridad en el punto (x,y,z) , p la presión y t el tiempo.
     Esta ecuación relaciona la presión acústica (energía) en un determinado punto del medio, con las coordenadas de ese punto y en un momento dado.
     No siempre es posible encontar soluciones a la ecuación dada, lo que implica que en muchos casos no puedan obtenerse expresiones exactas que sirvan de base para el cálculo de la intensidad acústica en el océano.

Desde 1960 se ha puesto gran interés en el desarrollo de modelos matemá:ticos capaces de analizar y tartar los datos obtenidos experimentalmente en acútica submarina. Con independencia del tipo de modelo de cálculo las aplicaciones caen en dos categorias básicas: INVESTIGACION y OPERATIVIDAD. En el primer caso está dirigido a la precisión, normalmente en ambientes de laboratorio en los que no es importante el tiempo; en el segundo por el contrario se soportan escenarios reales, incluyendo actividades de defensa y por lo tanto han de ejecutarse rápidamente, en condiciones que no serán las más adecuadas,ue necesitan de la toma de una decisión y por lo tanto se subordina la precisión a la rapidez del cálculo.
      El punto de partida de todos los modelos es la ecuación de ondas para una fuente puntual, ya descrita.
      Hay dos aproximaciones a la solución de la ecuación de ondas: MODOS NORMALES y RAYOS, y dentro de ellos dos nuevas clasificaciones: modelos independientes del alcance, que suponen una simetría cilíndrica en el mar, es decir, sin estratificación horizontal, y modelos dependientes del alcance, donde dicha estratificación es considerada.
      El modelo de MODOS NORMALES calculan la integral de la ecuación de ondas o la expanden en función de un conjunto finito de "modos normales". Cada uno de estos modos supone que la solución de la ecuación es el producto de una función dependiente de la profundidad y de una función dependiente del alcance.
      El modelo de RAYOS se basa en el supuesto de que la energía sonora es transmitida a lo largo de trayectorias (rayos) que son líneas rectas en todas las partes del medio en que la velocidad del sonido es constante, y líneas curvas, de acuerdo con las leyes de refracción donde la velocidad del sonido es variable.
      Para entender lo que es un rayo sonoro, supongamos una fuente sonora omnidireccional que vibra produciendo ondas esféricas. La superficie de la esfera cuyos puntos vibran con la
misma fase es el denominado 'frente de onda'. Si nos fijamos en la dirección en que la energía fluye, hay que pensar en un conjunto infinito de radios que surgen del centro de la fuente. Estos radios son los llamados 'rayos sonoros' y son en todo momento perpendiculares a los frentes de onda generados. El modelo físico que impone el modelo de MODOS NORMALES es la suposición de que tanto las superficie como el fondo sean perfectamente planos y que el medio de propagación sea homogéneo, lo cual es una simplificación muy atrevida cuando se trata del mar. Además la búsqueda de soluciones exactas a la ecuación de ondas es matemáticamente compleja y difícil de interpretar.
      El modelo de rayos presenta una solución menos compleja y de fácil interpretación visual, pero tiene las siguientes restricciones de aplicación:

  1. Cuando los radios de curvatura de los rayos son mayores que la longitud de onda.

  2. Cuando la velocidad del sonido varí apreciablemente a lo largo de distancias inferiores a la longitud de onda.


      Por estos motivos el empleo de los MODOS NORMALES se reduce a aquellas frecuencias en que los RAYOS no pueden dar soluciones efectivas, a frecuencias inferiores a 300 Hz.
      La siguiente tabla muestra las diferencias entre ambos modelos.

Modos normales

Rayos

Solución teórica completa

Sin solución para el problema de difracción

Presentación poco intuitiva

Presentación visualmente interpretable

De difícil aplicación para rebotes en superficie o fondo

Fácil aplicación para rebotes

Válido para todas las frecuencias

Válido solo a altas frecuencias

Dependiente de la fuente

Independiente de la fuente

Solución matemática compleja

Solución matemática sencilla

Señal y Ruido

Tradicionalmente las profundidades marinas han sido consideradas como un espacio eminentemente silencioso, sin embargo, los sonidos que pueden captarse en los más recónditos lugares de nuestros mares son comparables en nivel a los que existen en un jardín tranquilo.
     Las señales acústicas recibidas en el océano tienen una enorme variedad de orígenes. Pueden ser generadas por fenómenos naturales, por organismos marinos, actividad humana, etc.. Todas ellas tienen una composición compleja formada por la suma de diversas componentes que varian en amplitud y en fase, muchas veces de manera aleatoria. Todo este conjunto de señales se califica como RUIDO.
     Cada aplicación del SONAR implica realizar una observación de la onda sonora; en algunos casos basta con detectar su presencia, identificada con la fuente que lo produce y en otros se requiere una valoración de sus características. Todo sonido sobre el que se requiere realizar una valoración se califica como SEÑAL.
     Un mismo sonido puede ser calificado como SEÑAL o como RUIDO dependiendo del oyente o receptor. Por ejemplo, el sonido producido por un barco puede ser calificado como RUIDO por el emisor, ya que obstaculiza su propia escucha, mientras que es calificado como SEÑAL por el receptor ya que le suministra información.
     A veces la señal surge ante el receptor junto con otras que degradan la precisión y/o fiabilidad de la observación. Cualquier señal que obstaculiza la observación de otra señal se llama INTERFERENCIA.
     Como todos los sonidos la intensidad del ruido se mide en dB.. Pero debido a su compleja composición se utiliza el nivel espectral, es decir, el nivel en un ancho de banda de 1 Hz. de la frecuencia elegida. Este nivel se denomina NIVEL DE RUIDO.
     La magnitud de la señal con relación al nivel de ruido se conoce como RELACIÓN SEÑAL RUIDO. En cada aplicación de SONAR el sistema tiene un valor crítico por debajo del cual la observación de la señal es insatisfactoria.
     Cuando el ruido de la mar se origina en numerosas fuentes o cuando las mismas no son fácilmente identificables el ruido se califica como RUIDO AMBIENTE o RUIDO DE FONDO, que se caracteriza por ser isotrópico, es decir, reune las mismas características en todas direcciones. El ruido ambiente se refiere pues, al ruido que queda después de identificar todas las fuentes conocidas.
     El ruido en la mar es bien conocido, ya que existen numerosos trabajos de investigación, a partir de los cuales se han definido métodos para predecir los niveles de ruido por zonas y condiciones ambientales.

Analisis de Sonar

El SONAR se utiliza como medio de obtención de información. Para ello se precisa la detección de un contacto y el análisis acústico del mismo para obtener las características que permitan, mediante una evaluación de los datos, su clasificación.
     Una detección existe cuando se obtiene una señal reconocible sobre el ruido de fondo. A menudo el proceso de detección es complejo ya que la señal es debilmente perceptible.
     Cuando hay una detección comprobada se inicia el análisis que es un proceso dinámico en el que se evalúan los datos procedentes del contacto con el fin de clasificarlo e identificarlo de forma concluyente. Así por ejemplo, una vez detectado un eco en el SONAR ACTIVO, se trata de identificar si proviene del fondo, de un cetáceo o de un submarino.
     En el procedimiento de análisis de usan diversos medios y equipos. Con los equipos de pretende el estudio íntimo de la señal detectada y con otros medios el comportamiento de la misma. Uan de las formas de analizar un contacto sonar consiste en comprobar su movimiento, de esta forma puede saberse si está inmóvil o tiene dirección y velocidad constantes o erráticas.

Cuando se utiliza el SONAR ACTIVO el análisis se centra en el eco devuelto por el objeto sobre el que incide la emisión sonar.
     La detección por SONAR ACTIVO permite conocer la dirección y la distancia a la que se encuentra el eco desde el transmisor, si se conoce la velocidad del sonido en el agua. En el caso de no conocerla exactamente, se puede promediar con una cantidad representativa de la celeridad para la latitud en la que se encuentren el emisor y el eco. Unos pocos metros/segundo de error respecto a la celeridad real, teniendo en cuenta que los alcances de SONAR ACTIVO son relativamente pequeños , no introducen un error sustancial en la distancia obtenida frente a la real.
     La distancia es por tanto:

D = 1/2 (t . c)


Siendo 't' el tiempo transcurrido entre la emisión sonar y la recepción del eco y 'c' la celeridad. El coeficiente 1/2 se aplica porque la distancia recorrida por el sonido es el doble de la que existe hasta el contacto, ya que el sonido viaja desde el emisor al contacto y el eco del contacto al receptor.
     A partir de las direcciones y distancias obtenidas es posible calcular el movimiento del blanco. Este dato es muy importante, ya que en principio permite distinguir si se trata de un contacto inmóvil, pudiendo ser un eco devuelto por el fondo o un objeto sobre el fondo o en el caso de movilidad si es errática podrá considerarse como un BIOLÓGICO, es decir, cualquier animal o grupo de animales marinos, como una ballena o un banco de peces. Además el conocimiento del movimiento del contacto, permite conocer la posición futura del mismo con lo cual se puede realizar el seguimiento del mismo de forma automática.
     El efecto DOPPLER que presenta el eco permite apreciar el movimiento relativo y el aspecto o posición que tiene el contacto respecto a nosotros. Los equipos SONAR modernos son capaces de medir el do
ppler de forma automática.
     El timbre permite apreciar la cualidad sonora del eco. Un timbre metálico puede indicar la presencia de un submarino, mientras que un timbre blando puede indicar la de un cetáceo.
     La duración y la anchura del eco permiten evaluar la geometría del contacto y la posición relativa del mismo.

Analisis de banda Ancha y Estrecha

Se llama análisis en banda ancha al que se efectúa mediante SONAR PASIVO en toda la banda de frecuencias de escucha del transductor, que puede abarcar desde unos pocos Hz. a varias miles.
     Tradicionalmente este tipo de análisis es realizado escuchando directamente el sonido proveniente del mar, por lo cual se precisa mucha experiencia para ser capaz de diferenciar el origen de las señales recibidas.
     De la escucha directa sobre el ruido es posible obtener abundante información, principalmente de los elementos más ruidosos de un contacto: la hélice y la planta propulsora.
     El efecto de cavitación y el de batido de una hélice permite contar las revoluciones a las que gira, con lo que puede obtenerse una idea sobre la velocidad del contacto. Otros efectos como el "canto de hélice" ayudan al mantenimiento del contacto, es decir, facilitan reconocer la dirección a la que se debe dirigir la escucha. Los ruidos hidrodinámicos, sonidos a hueco y otros efectos, dan una idea de la carga y el tonelaje del contacto.
     El ruido de propulsión es con diferencia, la mayor fuente de datos en la escucha. Permite conocer el tipo de propulsión del contacto: motores diesel, turbinas de gas o vapor, motores eléctricos. Este dato aporta las restricciones necesarias para clasificar el contacto, si se trata de un barco o submarino, entre un grupo determinado, más restringido, para permitir posteriormente su identificación. Un análisis más exhaustivo del ruido de propulsión permite conocer la potencia de su máquina y su respuesta a las variaciones de velocidad.
     Además de los ruidos permanentes de la planta propulsora y hélices, existen otros ruidos de maquinaria que es posible detectar y analizar, como son los ruidos de maquinaria auxiliar y los TRANSITORIOS. Los primeros son los que se producen por los equipos que se encuentran acoplados a la planta propulsora y los de funcionamiento intermitente. Entre los primeros pueden existir compresores, bombas de combustible y agua, ventiladores, etc., y entre los segundos bombas de achique, grupos de aire acondicionado, etc. Los TRANSITORIOS son ruidos cortos e intensos, a veces no específicos que se producen aleatoriamente, por ejemplo, el sonido de un timbre, o la caida de un objeto. Muchas veces la detección y clasificación de un TRANSITORIO es definitiva en la identificación de un contacto; por ejemplo, un contacto del que se oye la propulsión y su hélice, emite transitorios de disparos de cañón permite clasificar dicho barco como un buque de guerra.
     Al igual que en el análisis de ecos, el conocimiento del movimiento del contacto es extremadamente importante. A diferencia del SONAR ACTIVO, el SONAR PASIVO no permite obtener distancia al contacto (existen telémetros acústicos pasivos en la actualidad, que permiten conocer este datos con algunas restriccciones), pero las distancias de detección son mayores y permiten obtener gráficos de tiempo-dirección a partir de los cuales y mediante un elaborado proceso, algunas veces asistido por ordenador, obtener la dirección, velocidad y distancia del contacto.
     Además del ruido procedente de los contacto es posible asimismo analizar las emisiones sonar procedentes de otros equipos, y que llegan a nuestro receptor. En este caso es posible conocer todos los datos de la emisión como la frecuencia, la longitud del pulso, el intervalo entre emisiones, la dirección de la que proviene, el tipo de emisión (frecuencia modulada o pulsos de frecuencia pura, tanto por ciento de modulación), e incluso la distancia en algunos casos, bien por el nivel de la señal recibida, o bien por la diferencia de tiempo en que tarda en llegar al receptor el rayo directo desde el emisor y el o los rayos reflejados en el fondo.
     Cuando la profundidad en la zona en mayor de cierta cantidad y siempre que las pérdidas por rebote en el fondo no sean tan cuantiosas que debiliten en exceso la señal reflejada, es posible medir el tiempo entre la recepción del rayo directo desde el emisor y el rayo reflejado, que llegará más tarde al receptor. A partir de esta diferencia y conociendo la profundidad del emisor y la del fondo se puede calcular matemáticamente la distancia al emisor.

Se llama BANDA ESTRECHA a un ancho de banda menor del 1% de la frecuencia que se considera. La técnica de análisis espectral en banda estrecha aumenta los alcances de detección porque consigue mejor relación señal/ruido y permite obtener información del contacto que el oído humano es incapaz de discernir.
     Básicamente el análisis espectral trata de descomponer una banda de ruido recibida en los tonos fundamentales que la forman para presentarlos en un gráfico que permita su interpretación. Existen varias técnicas para lograrlo, pero las dos más usuales son el FILTRADO y
la TRANSFORMACION.
     El FILTRADO consiste en la elaboración de una serie de filtros de paso de banda adyacentes, con lo cual se descompone la señal en sus componentes individuales de frecuencia. La TRANSFORMACIÓN es el método más utilizado y se basa en el Teorema de Fourier y en su transformada rápida que permite expresar una señal obtenida en el dominio del tiempo descompuesta en sus frecuencias constitutivas y almacenando la amplitud de cada componente en el dominio de la frecuencia.
     Las frecuencias obtenidas tras el proceso de filtrado o transformación se representan gráficamente al objeto de poder analizarlas de forma visual. Existen dos tipos básicos de presentación en ejes coordenados: La presentación frecuencia/amplitud o ALI y la presentacisn en frecuencia/intensidad/tiempo o CASCADA. El primer tipo es adecuado para ver las señales en tiempo real, es decir, en el mismo tiempo en que se producen, por lo que resulta especialmente útil en el análisis de transitorios, mientras que el segundo tipo es ideal para analizar señales de larga duración como los ruidos de la planta propulsora, ya que puede apreciarse la evolución de la señal.


     Normalmente la señal que se analiza espectralmente no se presenta en tiempo real sino promediada, esto es, la señal se muestrea o descompone en sus frecuencias cada cierto tiempo y posteriormente se promedian al objeto de poder detectar más fácilmente las frecuencias fundamentales que la componen, ya que resaltan sobre el ruido de fondo.
     Independientemente de la pilizada, existen dos formas de análisis: en la primera la señal que se analiza proviene directamente del transductor, tal y como se halla presente en el medio; en la segunda se realiza una DEMODULACION. Esta técnica se basa en que cualquier objeto sumergido que tenga un movimiento de rotación es capaz de producir una modulación en amplitud del ruido ambiente. Demodulando pues el ruido, pueden aparecer frecuencias representativas de la velocidad de giro del objeto; aplicándolo al caso de las hélices de un barco, podemos obtener sus revoluciones por minuto.


     Mediante el proceso de análisis podemos obtener las frecuencias predominantes de la señal que se recibe y que por su medida y por la existencia de armónicos (múltiplos enteros de las mismas) servirán para obtener características del objeto detectado.
     Las frecuencias producidas por máquinas rotatorias o alternativas permiten obtener su velocidad de giro o desplazamiento de sus émbolos; otras identificaran ruidos hidrodinámicos. Si las líneas de las frecuencias son estables indican, en el caso de que sean producidas por maquinaria rotativa, que la velocidad de giro es constante, por el contrario si las líneas presentan desplazamientos en frecuencia indicarán los cambios en la velocidad de giro. Un estudio detallado puede reconocer el origen de cada una de las frecuencias detectadas en un contacto; así es posible re el tipo de propulsión que lo mueve, el número de cilindros de su motor o la frecuencia de giro de su turbina y generadores, el número de palas de su hélice y el número de ejes que posee, la reducción entre el motor y el eje, la frecuencia de sus generadores eléctricos, el tipo de bombas y compresores que utiliza y sus características principales, etc.
     El conjunto de sonido radiado por un barco se llama FIRMA ACÚSTICA porque lo identifica únicamente, es como una huella digital. La FIRMA ACÚSTICA describe con mayor o menor precisión todas las frecuencias radiadas con su fuente originadora. Debido a que la maquinaria de un buque no se haya en el mismo lugar, la intensidad de cada una de las frecuencias de la firma no es la misma para todos los aspectos que el buque presente respecto al receptor de la señal. A la expresión de las frecuencias con sus intensidades en relación al aspecto del contacto se le denomina MAPA TONAL.
     Debido a que la mayoría de las frecuencias características de la firma se producen por efecto de la propulsión y del ruido hidrodinámico, son muy bajas, por lo cual pueden ser detectadas a grandes distancias. Esto hace que el análisis espectral y la banda estrecha sean de interés estratégico en la Guerra Acústica. La obtención de inteligencia acústica, es decir, las firmas acústicas de buques enemigos en potencia, es especial preocupación de la mayoría de las armadas de todos países. Los resultados obtenidos son celosamente guardados en secreto, para su utilización en caso de conflicto.

WILL.TELECOM


ANTENAS

Publicado el 1 de Marzo, 2006, 14:30. en General.
Referencias (0)

ANTENAS

Existen cuatro clases de propagación:

- Directa.

- Por reflexión.

- Por difracción.

- Por refracción.

La directa es la que más interesa.  Es la que se representa por el tópico de "hasta donde alcanza la vista".  Sin embargo, también se puede captar la señal de TV, si tiene suficiente intensidad y no la falsean los obstáculos, por la propagación reflejada en un obstáculo (montaña, edificio, etc), por la difractada siguiendo la ladera de las montañas o colinas o siguiendo la línea del horizonte, y finalmente, por la refractada en las capas inferiores de la ionosfera, (refracción debida al estado ionizado de esta zona de la atmósfera).

Pueden llegar a la antena dos señales idénticas pero una reflejada y otra directa, y como no coinciden en el tiempo, se crean las imágenes fantasma, que pueden ser molestas.  Se corrige con antenas de gran directividad.  Si la línea de bajada de antena es larga se puede producir reflexión, en especial si las impedancias no se corresponden.

La antena tanto receptora como emisora, cubre un área tanto más amplia cuanto mayor es su altura.

     El principio de reciprocidad en las antenas es que el comportamiento de ambas es idéntico. Por tanto, si una tiene sentido horizontal, la otra también.  Esto se denomina polarización de la señal.

La horizontal proporciona menos ruidos y perturbaciones espúreas y mayor alcance en transmisión.  En España se utiliza este sistema.  En algunos países, ambos para evitar la interferencia entre emisoras próximas en el mismo canal.

En las emisiones de TV y radio FM se emplea onda directa, dando mayor estabilidad a la emisión.

La antena de TV merece tanta más atención cuanto mayor sea la frecuencia del canal a sintonizar y además porque este circuito se halla a la intemperie.

La intensidad de la señal transmitida se mide en el lugar donde se coloque la antena y se mide en μV, (tensión de RF y campo eléctrico de RF en μV/ (por metro).

Como mínimo la señal será de 350 a 500 μV, aunque algunos TV sólo usan 50 μV y menos en los canales 2 y 4 y con 100 μV en los canales 5 y 11.

FRECUENCIA DE RESONANCIA DE UNA ANTENA

     La vibración o frecuencia de resonancia de una antena es comparable a la vibración de una cuerda o varilla en la que se establecen vientres y nodos. (fig. 1).


En RF, a cada nodo de intensidad, le corresponde un vientre de tensión, y a cada vientre de intensidad un nodo de tensión. A este sistema de nodos y vientres que se establecen en una antena se denomina distribución de ondas estacionarias.

En las antenas con un polo a tierra (antenas Marconi), se produce un sólo nodo de intensidad (vientre de tensión) en el extremo de antena. Y viceversa en el plano de referencia de la puesta a tierra. (fig. 2).

En antenas verticales u horizontales no unidas a tierra, la oscilación fundamental se establece para  el semiperíodo, por lo que se llaman antenas de media onda. (fig. 3).

Con esto se ve, que una antena sólo puede entrar en resonancia a ciertas frecuencias bien determinadas (a la fundamental o a ciertos armónicos de ésta).

La longitud exacta de las antenas es un 5 % menor, debido a aislamientos defectuosos.

La separación entre las dos varillas será la menor posible y constante en toda la antena, pues se consigue mayor ancho de banda al ser mayor la superficie de radiación. Por otra parte, bajo el punto de vista eléctrico es inútil utilizar elementos macizos con altas frecuencias, puesto que la corriente circula por la superficie (efecto pelicular).

 ANTENA DIPOLO INPROVISADA CON UN TROZO DE CINTA PLANA BIFILAR DE 300 Ω.-

                       λ = en metros

L = en metros.

f = en MHz.


DIPOLO DOBLADO, TRANSFORMADOR DE IMPEDANCIAS.-

Si se varía el diámetro de un elemento en relación al otro, así como la distancia o separación entre ellos, se modifica el valor de la impedancia del conjunto. Al ser diferentes los diámetros, la intensidad, no se distribuye por igual en los dos elementos.

Z aumenta cuando se disminuye el diámetro del elementos de alimentación con respecto al otro.

Z disminuye cuando el diámetro del primer elemento aumenta con respecto al otro.

PUNTO DE ALIMENTACIÓN DE LAS ANTENAS.-

La alimentación del emisor a la antena y de la antena al receptor, se hace en un vientre de intensidad.

Así, en las antenas Marconi, (fig. 2), el punto de alimentación se hará muy cerca del extremo de tierra.

Por el contrario, en las antenas de media onda, (fig. 4, 5 y 6), se hará en la parte media de la antena.

IMPEDANCIA DE UNA ANTENA.-

La antena tiene cierta capacidad y autoinducción que definen su frecuencia de resonancia. Ante la frecuencia de resonancia las reactancias capacitiva e inductiva, tienen el mismo valor pero desfasadas 180º, y por lo tanto se anulan, y la impedancia es 0.

Por tal motivo, a la frecuencia de resonancia, la antena es puramente resistiva.

La impedancia de acoplamiento es la resistencia que hay al acoplamiento energético de RF y la antena. (En emisor se denomina resistencia de radiación).

DIRECCIONALIDAD DE LAS ANTENAS.-

En las antenas verticales la radiación o captación de ondas directas y reflejadas, es la misma en todos los sentidos (antenas omnidireccionales).

En las antenas horizontales, la combinación de ondas directas y reflejadas no es la misma Se trata de una antena direccional.

Como en los casos prácticos, la antena deberá estar sintonizada en banda ancha para que pueda captar todos los canales de una banda.

ANTENA DIPOLO DOBLADO.-

Podría utilizarse una antena dipolo simple, pero se utiliza la de dipolo doblado por las siguientes ventajas:

- Mayor resistencia mecánica.

- Impedancia más constante a las variaciones de frecuencia.

LÍNEAS DE TRANSMISIÓN.-

Las líneas son de dos tipos:

- Líneas aperiódicas o de ondas progresivas.

- Líneas resonantes o sintonizadas, o sea, de ondas estacionarias.

En TV se utiliza la primera. Las segundas, deben tener longitudes muy exactas, mientras que las otras pueden ser aproximadas.


Las líneas aperiódicas llevan la energía de RF sólo en una dirección, desde la antena al receptor, las ondas progresan. Si la línea es resonante, se establece un sistema de vibración por ondas estacionarias.

IMPEDANCIA DE UNA ANTENA.-          

Z = Ohmios.

L = Henrios.

C = Faradios.

ATENUACIÓN.-

Se especifica en tanto por ciento '%' o en 'dB'. Se refiere a un trozo de conductor de 100 m de longitud, por lo general. Son las pérdidas que tiene un conductor a causa del valor óhmico, propiedades del dieléctrico, etc.

SIMETRÍA - ASIMETRÍA.-

Esta característica es muy importante para efectuar adaptaciones.

-          Una línea de bajada bifilar es simétrica, ya que sus conductores son iguales.

            - Una línea de bajada coaxial es asimétrica, porque en realidad, sólo hay un conductor, ya que el concéntrico (coaxial)  actúa como pantalla.

Las líneas simétricas son adecuadas para impedancias altas 75 a 300 Ω. La impedancia de una línea bifilar es:

CINTA PLANA BIFILAR.-

Se fabrica para 75, 150, 240 y 300 Ω. Este tipo de cable es el que se utilizaba con los televisores en blanco y negro que tenían una Z de entrada de 300 &Este tipo de cable está en desuso pues el rendimiento en altas frecuencias como UHF es muy bajo y además, al no estar apantallado, recoge todo tipo de interferencias. El cable se deteriora con facilidad.

LÍNEAS ASIMÉTRICAS CON CABLE COAXIAL.-

Están constituidas por una malla concéntrica y un conductor central, separados ambos por polietileno celular o expanso. La malla está recubierta con polietileno denso.

Son asimétricas porque uno de los conductores actúa también como pantalla y está a potencial respecto al otro, es decir, sus características eléctricas no son simétricas con respecto a tierra.


La ventaja es que no está influida por señales parásitas, interferencias, etc. Aunque su atenuación es algo mayor que la bifilar, aquélla permanece constante a lo largo del tiempo.

Se fabrican para baja impedancia de 50 a 150 Ω. La más utilizada es de 75 Ω.

Al hacer la instalación, tener la precaución de no doblar demasiado el cable para que no se aplaste la espuma de polietileno.

ANTENAS FM.-

Estas antenas difieren de las de AM por la diferencia de frecuencia con que trabajan. La antena más sencilla es el dipolo simple. Fig 7.

La energía recibida es mayor cuando el dipolo está orientado de tal manera que la señal de la emisora inularmente en él. El clásico sistema tierra no es más que una derivación del dipolo simple en los que se ha sustituido un brazo por el suelo.

Dipolo plegado.- El mástil no es necesario que esté aislado eléctricamente con el dipolo. (Fig.8). La Z es de 300  Ω y la ganancia es la misma que la anterior. La sensibilidad es mayor cuando está orientada perpendicular-mente a la dirección de emisión.

Dipolo plegado circular.- Tiene las mismas características que el anterior, con la ventaja de que al ser omnidireccional, la ganancia es igual en todas direcciones. (Fig. 9).

ss="MsoNormal" style="MARGIN: 0cm 0cm 0pt"> Antenas con elementos parásitos.- A los 2 últimos dipolos se les puede añadir conductores rectos, situados a uno y otro lado del plano del dipolo. Se llaman parásitos y aumentan la ganancia. Tienen un elemento director y otro reflector, al igual que las de TV. Las consideraciones que se tienen para TV, valen para FM.

Acoplamiento entre antena y receptor.- La máxima transferencia de energía se consigue cuando las impedancias de salida de la antena y de entrada del receptor son iguales.

Líneas de transmisión.- Se utilizan líneas como las de TV, con los mismos tipos de cables, coaxial y plano, 75 Ω y 300 Ω, respectivamente.


Antenas interiores.- Cuando la señal recibida es fuerte, se puede colocar una antena interior que son derivadas del dipolo simple y plegado.

Una de las más utilizadas es la de cuernos, que no es más que un dipolo simple con los brazos inclinados. Los tubos son extensibles a voluntad y se pueden girar mediante una rótula situada en la base. Esta se puede orientar.

De todos modos, este tipo de antena nunca tiene la efectividad de una buena antena exterior.

ANTENAS DE TV, 'ANTENAS YAGI'.-

Son antenas directivas de elementos múltiple y alta ganancia. Al añadir al dipolo, por ser bidireccional, más elementos para hacerlo direccional, llamados parásitos, porque en sí mismo no son captadores, llamamos al conjunto antenas 'Yagi'.

Los elementos directores colocados delante, refuerzan la señal en dirección del emisor. Pueden ser varios. Son siempre más cortos que el dipolo, de longitud decreciente conforme se aleja de él.

El elemento reflector colocado detrás, bloquea la captación de señales en la dirección opuesta al emisor. El reflector hace unidireccional el dipolo. El reflector es algo más largo que el dipolo.

Las antenas Yagi tienen más ganancia porque cada elemento adicional hace ganar algo en la captación de la señal.

El dipolo parásito (es igual que un dipolo aunque no está dividido por el centro), recibe cierta energía y la vuelve a radiar en mayor o menor parte, y la recibe el dipolo. Para que las dos radiaciones, la del elemento parásito y la de la emisora, estén en fase, el parásito y el dipolo receptor deben estar a una distancia de 1/4 long. de onda.[1][1]

Antenas directivas en UHF.- La característica de estas ondas, ondas decimétricas, es parecida a un rayo luminoso o a la luz. Si se coloca un obstáculo, éste dificulta la propagación del rayo luminoso. Por eso, las antenas han de colocarse lo más altas posibles, para 'ver' la antena emisora. Como la onda es pequeña, así debe ser el dipolo, que entonces tiene poca superficie de captación de energía y obliga a aumentar el número de elementos directores para aumentar la ganancia. El cable deberá tener pocas pérdidas y lo más corto posible.

VHF ----------------- de 3 A 6 elementos.

UHF ----------------- de 6 a 20 elementos, incluso 27.

Para mejorar las antenas Yagi de UHF, en vez de un dipolo reflector, están dotadas de un plano eléctrico reflector.

ANTENAS MULTIBANDA.-


Hoy en día, existen muchos tipos de antenas, que mejoran los diseños anteriores. Así tenemos la antena multibanda, que como su propio nombre indica capta más de una banda de fra. Con este tipo de antenas, somos capaces de obtener señal tanto de la banda III como de la IV o, de la V. (Fig. 10).

MEDIDOR DE CAMPO.-

A continuación se presenta el esquema correspondiente a un sencillo  medidor de campo, cuya utilidad es la de indicarnos el nivel de señal de RF recibida en el lugar que nos encontremos, o también podemos acoplarla a nuestra antena receptora. (Fig. 11).

INSTALACIONES CON ANTENA ALEJADA Y RETRANES.-

Cuando las condiciones para una recepción perfecta son desfavorables, se recurre a otros métodos de recepción.

Con antena alejada: Es simplemente colocar la antena en lo alto del obstáculo y llevar señal por una línea, y si es necesario, utilizar amplificadores. Cuando la distancia entre el obstáculo y el receptor sea muy grande, ya por motivos económicos o de otra índole, se procederá a la retransmisión.

Retransmisión: Consiste en la conexión de dos antenas, conectadas entre sí, de forma que una se oriente a la emisora y la otra hacia la antena. A esto se le llama relé pasivo.

Si entre las dos emisoras se coloca un pequeño emisor de baja potencia, se le llama relé activo.

El sistema de relé pasivo es interesante cuando la distancia entre el obstáculo y el receptor no exceda de 100 ó 200 m. El activo cubre grandes distancias.

CONJUNTOS VHF-UHF Y RADIO-TV.-

Cuando hay suficiente nivel de señal, se puede bajar todas las señales por una línea única. Si la señal no es fuerte, se deben emplear amplificadores. Para bajar varias señales de distinta frecuencia por una misma línea, se utilizan los filtros que son mezcladores y separadores. (Fig. 12).

 ATENUADORES.-

Se utilizan cuando el nivel de la señal es demasiado elevado y existe peligro de bloqueo o saturación de la imagen. Los atenuadores, como su nombre indica, tratan de reducir la señal. Usualmente utilizan filtros en π, y deben tener la impedancia de entrada y salida de acuerdo con la línea. (Fig. 13).

INTERFERENCIAS.-

Las interferencias perjudican notablemente la imagen de un TV. Lo mejor es quitar el agente causante (motores eléctrico, motores de explosión, radioaficionados, etc), y si no es posible, con filtros eliminadores de esa frecuencia perturbadora.


Se puede colocar un circuito oscilante a la entrada del televisor, que es un cable bifilar o coaxial de longitud/4 de la señal que interfiere.  

          COAXIAL BIFILAR

Este cable va en paralelo con la bajada de antena. Como la frecuencia no la conocemos de cientearemos en la longitud del cable.

Las antenas en el tejado, se influyen mutuamente si están a una distancia de 7 a 15 m. en VHF. En UHF, la influencia es escasa. No se debe colocar una antena en la zona de sombra, por ejemplo, una detrás de otra, a menos que la posterior esté a mayor altura. (Fig. 14).

Se debe inclinar un poco la antena, unos 20º en dirección al emisor.


ANTENAS COLECTIVAS.-

En una instalación de antena colectiva de televisión típica, cuyo esquema genérico se

muestra en la fig. 15, se pueden distinguir tres partes claramente diferenciadas:

  -  Antenas o elementos captadores de señal, cuyo número será variable de pendiendo de la cuantía y tipo de señales a recibir.

  -  Amplificadores, mezcladores y distribuidores que, colocados dentro de un cofre o caja en lugar próximo a las antenas, combinan o mezclan las señales suministradas por las antenas y las amplifican para poder stribuidas a todos y cada uno de los abonados, a través de un cable coaxial único.

  -  Red de distribución, o cableado a través de toda la finca con el fin de poner a disposición en las correspondientes tomas de todos los abonados la totalidad de las señales recibidas en las antenas, y en condiciones de ser correctamente visualizadas en los correspondientes receptores.

La inclusión de señales adicionales de televisión comportará, dependiendo de los casos y situaciones, una posible modificaciónbsp; en el número de antenas o elementos captadores de señal y, en todo caso, una ampliación del equipamiento de amplificadores, mezcladores y distribuidores situado en el cofre.  

SISTEMA DE MONTAJE TIPO 'Z'.-

Este sistema de montaje, es uno de los más modernos, y se basa en el empleo de amplificadores de ganancia variable por cada canal de TV a recibir.

Las señales procedentes de las antenas que corresponden a cada  banda, es introducida en su amplifrespectivo. Posteriormente, y con ayuda de unos puentes, la señal va pasando por los distintos circuitos y siendo amplificada, obteniendo a la salida del conjunto la señal mezcla amplificada. En los terminales que no haya conexión, se deberán colocar los tapones terminales de 75 ohmios.

El conjunto se alimenta con una F.A. única y que deberá soportar la suma de las corrientes de consumo de cada amplificador.


WILLTELECOM

Al colocar elementos parásitos, si se mantiene la distancia correcta, la Z disminuye un 10 %, que es un valor pequeño. Si la distancia se reduce, la Z disminuirá notablemente y por tanto la ganancia será escasa.