miércoles, 13 de marzo de 2013

El microfono


El micrófono es un transductor electroacústico. Su función es la de traducir las vibraciones debidas a la presión acústica ejercida sobre su cápsula por las ondas sonoras en energía eléctrica, lo que permite por ejemplo grabar sonidos de cualquier lugar o elemento.
En 1827, Charles Wheatstone utiliza por primera vez la palabra “micrófono” para describir un dispositivo acústico diseñado para amplificar sonidos débiles. Procede de los vocablos griegos “micró” (pequeño) y “phon” (sonido). El primer micrófono formaba parte del Fonógrafo, el dispositivo más común para reproducir sonido grabado desde la década de 1870 hasta la década de 1880 y donde precisamente comenzó la historia del micrófono y las grabaciones de audio. Fue conocido como el primer “micrófono dinámico”.
Posteriormente, en 1876 Alexander Graham Bell, simultáneamente con Elisha Gray, registra una patente del “telégrafo hablado” (el primer teléfono). Por primera vez incluye el micrófono funcional que usa un electroimán.
El siguiente paso importante en el diseño del transmisor se debió a Henry Hunnings de Inglaterra. Él utilizó los gránulos del choque entre el [diafragma] y una placa metálica trasera. Este diseño originado en 1878, fue patentado en 1876. Este transmisor era muy eficiente y podía llevar más actual que sus competidores. Su desventaja era que tenía una tendencia a embalar y a perder su sensibilidad.
El advenimiento de la grabación eléctrica y de la radio del disco que difundían en los años 1920 tempranos estimuló el desarrollo de los micrófonos de carbón de una calidad mejor. El año 1920 llevó en la era comercial de la difusión. Algunos de los aficionados y de los cantantes bien informados comenzaron a jugar expedientes y a usar los micrófonos con sus programas. La estación de radio temprana utilizó el teléfono del candlestick para un micrófono.
El elemento típico del transmisor en este tiempo era no eléctrico occidental 323. Al principio él fue utilizado como hablando en él pues uno utilizaría un teléfono. El paso siguiente era proveer de los actores un micrófono que permitiría que estuvieran parados y que se realizaran. Para este uso el constructor tomó el transmisor del teléfono del candlestick, substituyó la boquilla corta por el megáfono y resbaló esta combinación dentro de una manga alineada fieltro de la baquelita cerca de ocho pulgadas de largo y puso pernos de argolla pequeños en cada extremo para suspenderlo de arriba.

viernes, 8 de marzo de 2013

Los auriculares



Los auriculares o audífonos son transductores que reciben una señal eléctrica originada desde una fuente electrónica (como por ejemplo una radio, sintoamplificador o reproductor de audio) que por su diseño permiten colocar cerca de los oídos unos altavoces para generar ondas sonoras audibles.
Los auriculares son normalmente desmontables e intercambiables, es decir, que pueden enchufarse o desenchufarse con facilidad del equipo que los requiere, y que los mismos auriculares pueden ser usados por diversos sistemas de audio.
En el contexto de las telecomunicaciones, los auriculares se refieren a un tipo de aparato que refiere a una combinación de auriculares y micrófono para la comunicación bidireccional. Por ejemplo, un teléfono celular.

Todos los bytes



Bit es el acrónimo Binary digit (dígito binario). Un bit es un dígito del sistema de numeración binario.
Mientras que en el sistema de numeración decimal se usan diez dígitos, en el binario se usan sólo dos dígitos, el 0 y el 1. Un bit o dígito binario puede representar uno de esos dos valores, 0 ó El bit es la unidad mínima de información empleada en informática, en cualquier dispositivo digital, o en la teoría de la información. Con él, podemos representar dos valores cuales quiera, como verdadero o falso, abierto o cerrado, blanco o negro, norte o sur, masculino o femenino, rojo o azul, etc. Basta con asignar uno de esos valores al estado de "apagado" (0), y el otro al estado de "encendido" (1).1.
Es una unidad de información utilizada como un múltiplo del bit. Equivale a 8 bits. Se usa comúnmente como unidad de información en dispositivos de almacenamiento de datos, en combinación con los prefijos del SI o los prefijos binario.


Un kilobyte (pronunciado [kilobait]) es una unidad de almacenamiento de información cuyo símbolo es el kB (con la 'k' en minúsculas) y equivale a 103 bytes. Aunque el prefijo griego kilo- (χίλιοι) significa mil, el término kilobyte y el símbolo kB se han utilizado históricamente para hacer referencia tanto a 1024 (210) bytes como a 1000 (103) bytes, dependiendo del contexto, en los campos de la informática y de la tecnología de la información.1 2 3
Para solucionar esta confusión, la Comisión Electrotécnica Internacional publicó en 1998 un apéndice al estándar IEC 60027-2 donde se instauraban los prefijos binarios, naciendo la unidad kibibyte para designar 210 bytes y considerándose el uso de la palabra kilobyte no válido a dichos efectos.
Un gigabyte (pronunciado /yigabáit/) es una unidad de almacenamiento de información cuyo símbolo es el GB, equivale a 109 byte Por otro lado, al igual que el resto de prefijos del SI, para la informática muchas veces se confunden con 230 bytes, lo cual debe ser denominado gibibyte según normativa IEC 60027-2 y la IEC 80000-13:2008 publicada por la Comisión Electrotécnica Internacional.
Como resultado de esta confusión, el término "gigabyte" resulta ambiguo, a no ser que se utilice un solo dígito de precisión. Conforme aumenta la capacidad de almacenamiento y transmisión de los sistemas informáticos, se multiplica la diferencia entre el uso binario y el decimal. El uso de la base binaria no obstante tiene ventajas durante el diseño de hardware y software. La RAM se mide casi siempre en potencias de dos, por otro lado la gran mayoría de los dispositivos de almacenamiento se miden en base diez.
El término giga proviene del griego γίγας, /jígas/ que significa gigante. En lenguaje coloquial, "gigabyte" se abrevia a menudo como giga
 Un terabyte es una unidad de almacenamiento de información cuyo símbolo es el TB, y equivale a 1012 bytes.1
Por otro lado, en la informática se puede confundir con 240, pero es un error ya que al valor 240 se denomina tebibyte según la normativa IEC 60027-2 y la IEC 80000-13:2008 publicada por la Comisión Electrotécnica Internacional. Confusiones similares existen con el resto de prefijos de múltiplos del S.I. (Sistema Internacional de Medidas).

miércoles, 6 de marzo de 2013

El cd rom y el disquete


Un CD-ROM (siglas del inglés Compact Disc - Read Only Memory) es un prensado disco compacto que contiene los datos de acceso, pero sin permisos de escritura, un equipo de almacenamiento y reproducción de música, el CD-ROM estándar fue establecido en 1985 por Sony y Philips. Pertenece a un conjunto de libros de colores conocido como Rainbow Books que contiene las especificaciones técnicas para todos los formatos de discos compactos.
La Unidad de CD-ROM debe considerarse obligatoria en cualquier computador que se ensamble o se construya actualmente, porque la mayoría del software se distribuye en CD-ROM. Algunas de estas unidades leen CD-ROM y graban sobre los discos compactos de una sola grabada(CD-RW). Estas unidades se llaman quemadores, ya que funcionan con un láser que "quema" la superficie del disco para grabar la información.
Actualmente, aunque aún se utilizan, están empezando a caer en desuso desde que empezaron a ser sustituidos por unidades de DVD. Esto se debe principalmente a las mayores posibilidades de información, ya que un DVD-ROM supera en capacidad a un CD-ROM.


Un disquete o disco flexible (en inglés floppy disk o diskette) es un medio de almacenamiento o soporte de almacenamiento de datos formado por una pieza circular de material magnético, fina y flexible (de ahí su denominación) encerrada en una cubierta de plástico, cuadrada o rectangular, que se puede utilizar en una computadora o laptop.
Los disquetes se leen y se escriben mediante un dispositivo llamado disquetera (o FDD, del inglés Floppy Disk Drive). Los disquetes de 3½" son menores que el CD, tanto en tamaño como en capacidad. La disquetera es el dispositivo o unidad lectora/grabadora de disquetes, y ayuda a introducirlo para guardar la información.
Este tipo de dispositivo de almacenamiento es vulnerable a la suciedad y los campos magnéticos externos, por lo que, en muchos casos, deja de funcionar con el tiempo.

La memoria


La memoria es una función del cerebro y, a la vez, un fenómeno de la mente que permite al organismo codificar, almacenar y evocar la información del pasado.1 Surge como resultado de las conexiones sinápticas repetitivas entre las neuronas, lo que crea redes neuronales (la llamada potenciación a largo plazo).
Experimento de Memoria espacial en ratones
La memoria permite retener experiencias pasadas y, según el alcance temporal, se clasifica convencionalmente en: memoria a corto plazo (consecuencia de la simple excitación de la sinapsis para reforzarla o sensibilizarla transitoriamente), memoria a mediano plazo y memoria a largo plazo (consecuencia de un reforzamiento permanente de la sinapsis gracias a la activación de ciertos genes y a la síntesis de las proteínas correspondientes). El hipocampo es la parte del cerebro relacionada a la memoria y aprendizaje. Un ejemplo que sustenta lo antes mencionado es la enfermedad de alzheimer que ataca las neuronas del hipocampo lo que causa que la persona vaya perdiendo memoria y no recuerde en muchas ocasiones ni a sus familiares.
En términos prácticos, la memoria (o, mejor, los recuerdos) es la expresión de que ha ocurrido un aprendizaje. De ahí que los procesos de memoria y de aprendizaje sean difíciles de estudiar por separado.
El estudio de la memoria suele centrarse sobre todo en los homínidos, puesto que estos presentan la estructura cerebral más compleja de la escala evolutiva. No obstante, el estudio de la memoria en otras especies también es importante, no sólo para hallar diferencias neuroanatómicas y funcionales, sino también para descubrir semejanzas. Los estudios con animales suelen realizarse también para descubrir la evolución de las capacidades mnésicas y para experimentos donde no es posible, por ética, trabajar con seres humanos. De hecho, los animales con un sistema nervioso simple tienen la capacidad de adquirir conocimiento sobre el mundo, y crear recuerdos. Por supuesto, esta capacidad alcanza su máxima expresión en los seres humanos.2

Unidad zip iomega


La unidad Iomega Zip, llamada también unidad Zip, es un dispositivo o periférico de almacenamiento, que utiliza discos Zip como soporte de almacenamiento; dichos soportes son del tipo magneto-óptico, extraíbles de media capacidad, lanzada por Iomega en 1994. La primera versión tenía una capacidad de 100 MB, pero versiones posteriores lo ampliaron a 250 y 750 MB.
Se convirtió en el más popular candidato a suceder al disquete de 3,5 pulgadas, seguido por el SuperDisk. Aunque nunca logró conseguirlo, sustituyó a la mayoría de medios extraíbles como los SyQuest y robó parte del terreno de los discos magneto-ópticos al ser integrado de serie en varias configuraciones de portátiles y Apple Macintosh.
La caída de precios de grabadoras y consumibles CD-R y CD-RW y, sobre todo de los pendrives y las tarjetas flash (que sí han logrado sustituir al disquete), acabaron por sacarlo del mercado y del uso cotidiano.
En un intento de retener parte del mercado que perdía, Iomega comercializó bajo la marca Zip, una serie de regrabadoras de CD-ROM, conocidas como Zip-650 o Zip-CD.

El software



Se conoce como software1 al equipamiento lógico o soporte lógico de un sistema informático, el que comprende el conjunto de los componentes lógicos necesarios que hacen posible la realización de tareas específicas, en contraposición a los componentes físicos que son llamados hardware.
Los componentes lógicos incluyen, entre muchos otros, las aplicaciones informáticas; tales como el procesador de texto, que permite al usuario realizar todas las tareas concernientes a la edición de textos; el llamado software de sistema, tal como el sistema operativo, que básicamente permite al resto de los programas funcionar adecuadamente, facilitando también la interacción entre los componentes físicos y el resto de las aplicaciones, y proporcionando una interfaz con el usuario.
El anglicismo "software" es el más ampliamente difundido al referirse a este concepto, especialmente en la jerga técnica; el término sinónimo "logical", derivado del término francés "logiciel", sobre todo es utilizado en países y zonas de influencia francesa.

La unidad aritmetica logica (UAL)


La unidad aritmético lógica, también conocida como ALU (siglas en inglés de arithmetic logic unit), es un circuito digital que calcula operaciones aritméticas (como suma, resta, multiplicación, etc.) y operaciones lógicas (si, y, o, no), entre dos números.
Muchos tipos de circuitos electrónicos necesitan realizar algún tipo de operación aritmética, así que incluso el circuito dentro de un reloj digital tendrá una ALU minúscula que se mantiene sumando 1 al tiempo actual, y se mantiene comprobando si debe activar el sonido de la alarma, etc.
Por mucho, los más complejos circuitos electrónicos son los que están construidos dentro de los chips de microprocesadores modernos. Por lo tanto, estos procesadores tienen dentro de ellos un ALU muy complejo y potente. De hecho, un microprocesador moderno (y los mainframes) puede tener múltiples núcleos, cada núcleo con múltiples unidades de ejecución, cada una de ellas con múltiples ALU.
Muchos otros circuitos pueden contener en el interior una unidad aritmético lógica: unidades de procesamiento gráfico como las que están en las GPU modernas, FPU como el viejo coprocesador matemático 80387, y procesadores digitales de señales como los que se encuentran en tarjetas de sonido, lectoras de CD y los televisores de alta definición. Todos éstos tienen en su interior varias ALU potentes y complejas.

El hardware


El hardware ha sido un componente importante del proceso de cálculo y almacenamiento de datos desde que se volvió útil para que los valores numéricos fueran procesados y compartidos. El hardware de computador más primitivo fue probablemente el palillo de cuenta;1 después grabado permitía recordar cierta cantidad de elementos, probablemente ganado o granos, en contenedores. Algo similar se puede encontrar cerca de las excavaciones de Minoan. Estos elementos parecen haber sido usadas por los comerciantes, contadores y los oficiales del gobierno de la época.
Los dispositivos de ayuda provenientes de la computación han cambiado de simples dispositivos de grabación y conteo al ábaco, la regla de cálculo, la computadora analógica y los más recientes, la computadora u ordenador. Hasta hoy, un usuario experimentado del ábaco usando un dispositivo que tiene más de 100 años puede a veces completar operaciones básicas más rápidamente que una persona inexperta en el uso de las calculadoras electrónicas, aunque en el caso de los cálculos más complejos, los computadores son más efectivos que el humano más experimentado.

viernes, 1 de marzo de 2013

La fuente de alimantacion



Una fuente de alimentación es un dispositivo que convierte la tensión alterna de la red de suministro, en una o varias tensiones, prácticamente continuas, que alimentan los distintos circuitos del aparato electrónico al que se conecta (ordenador, televisor, impresora, router, etc.).
Las fuentes de alimentación, para dispositivos electrónicos, pueden clasificarse básicamente como fuentes de alimentación lineales y conmutadas. Las lineales tienen un diseño relativamente simple, que puede llegar a ser más complejo cuanto mayor es la corriente que deben suministrar, sin embargo su regulación de tensión es poco eficiente. Una fuente conmutada, de la misma potencia que una lineal, será más pequeña y normalmente más eficiente pero será más compleja y por tanto más susceptible a averías.
 Las fuentes lineales siguen el esquema: transformador, rectificador, filtro, regulación y salida.
En primer lugar el transformador adapta los niveles de tensión y proporciona aislamiento galvánico. El circuito que convierte la corriente alterna en corriente continua pulsante se llama rectificador, después suelen llevar un circuito que disminuye el rizado como un filtro de condensador. La regulación, o estabilización de la tensión a un valor establecido, se consigue con un componente denominado regulador de tensión, que no es más que un sistema de control a lazo cerrado (realimentado - ver figura 3) que en base a la salida del circuito ajusta el elemento regulador de tensión que en su gran mayoría este elemento es un transistor. Este transistor que dependiendo de la tipología de la fuente está siempre polarizado, actúa como resistencia regulable mientras el circuito de control juega con la región activa del transistor para simular mayor o menor resistencia y por consecuencia regulando el voltaje de salida. Este tipo de fuente es menos eficiente en la utilización de la potencia suministrada dado que parte de la energía se transforma en calor por efecto Joule en el elemento regulador (transistor), ya que se comporta como una resistencia variable. A la salida de esta etapa a fin de conseguir una mayor estabilidad en el rizado se encuentra una segunda etapa de filtrado (aunque no obligatoriamente, todo depende de los requerimientos del diseño), esta puede ser simplemente un condensador. Esta corriente abarca toda la energía del circuito, para esta fuente de alimentación deben tenerse en cuenta unos puntos concretos a la hora de decidir las características del transformador.

Digitalizador


Un digitalizador de vídeo es un dispositivo electrónico que captura cuadros individuales de una señal de vídeo analógica o de un fichero de vídeo digital. Se usa normalmente como un componente de un sistema de visión digital, en el que los fotogramas de vídeo se capturan de forma digital y posteriormente se visualizan, almacenan o transmiten directamente, o comprimidas de forma digital.
Los primeros digitalizadores de vídeo sólo tenían memoria para capturar y almacenar un único fotograma de vídeo, de ahí su nombre en inglés, frame grabber de grab, capturar. Los digitalizadores modernos normalmente son capaces de almacenar varios fotogramas y comprimirlos en tiempo real usando algoritmos como MJPEG, MPEG1, MPEG2, MPEG4. Las demandas tecnológicas en campos como adquisición de radar, industria y guiado remoto han conducido al desarrollo de digitalizadores de vídeo con la capacidad de capturar fotogramas a gran velocidad y resolución.

Cámara web



Una cámara web o cámara de red1 (en inglés: webcam) es una pequeña cámara digital conectada a una computadora la cual puede capturar imágenes y transmitirlas a través de Internet, ya sea a una página web o a otra u otras computadoras de forma privada.
Las cámaras web necesitan una computadora para transmitir las imágenes. Sin embargo, existen otras cámaras autónomas que tan sólo necesitan un punto de acceso a la red informática, bien sea ethernet o inalámbrico. Para diferenciarlas las cámaras web se las denomina cámaras de red.
También son muy utilizadas en mensajería instantánea y chat como en Windows Live Messenger, Yahoo! Messenger, Ekiga, Skype etc. En el caso del MSN Messenger aparece un icono indicando que la otra persona tiene cámara web. Por lo general puede transmitir imágenes en vivo, pero también puede capturar imágenes o pequeños videos (dependiendo del programa de la cámara web) que pueden ser grabados y transmitidos por Internet. Este se clasifica como dispositivo de entrada, ya que por medio de él podemos transmitir imágenes hacia la computadora.
En astronomía amateur las cámaras web de cierta calidad pueden ser utilizadas para registrar tomas planetarias, lunares y hasta hacer algunos estudios astrométricos de estrellas binarias. Ciertas modificaciones pueden lograr exposiciones prolongadas que permiten obtener imágenes de objetos tenues de cielo profundo como galaxias, nebulosas, etc.

El disco duro


Un disco duro o disco rígido (en inglés Hard Disk Drive, HDD) es un dispositivo de almacenamiento de datos no volátil que emplea un sistema de grabación magnética para almacenar datos digitales. Se compone de uno o más platos o discos rígidos, unidos por un mismo eje que gira a gran velocidad dentro de una caja metálica sellada. Sobre cada plato, y en cada una de sus caras, se sitúa un cabezal de lectura/escritura que flota sobre una delgada lámina de aire generada por la rotación de los discos.
El primer disco duro fue inventado por IBM en 1956. A lo largo de los años, los discos duros han disminuido su precio al mismo tiempo que han multiplicado su capacidad, siendo la principal opción de almacenamiento secundario para PC desde su aparición en los años 1960.1 Los discos duros han mantenido su posición dominante gracias a los constantes incrementos en la densidad de grabación, que se ha mantenido a la par de las necesidades de almacenamiento secundario.1
Los tamaños también han variado mucho, desde los primeros discos IBM hasta los formatos estandarizados actualmente: 3,5 " los modelos para PC y servidores, 2,5 " los modelos para dispositivos portátiles. Todos se comunican con la computadora a través del controlador de disco, empleando un interfaz estandarizado. Los más comunes hasta los años 2000 han sido IDE (también llamado ATA o PATA), SCSI (generalmente usado en servidores y estaciones de trabajo). Desde el 2000 en adelante ha ido masificándose el uso de los Serial ATA. Existe además FC (empleado exclusivamente en servidores).