jueves, 28 de noviembre de 2013

Sistema Operativos - Código abierto y Código Cerrado

El sistema operativo se encarga de crear el vínculo entre los recursos materiales, el usuario y las aplicaciones. Cuando un programa desea acceder a un recurso material, no necesita enviar información específica a los dispositivos periféricos; simplemente envía la información al sistema operativo, el cual la transmite a los periféricos correspondientes a través de su controlador.

Sistemas operativos de código abierto

Un sistema operativo de código abierto se refiere a grandes rasgos a aquel en el que el código fuente se encuentra disponible para la consulta por parte de cualquier usuario.
Open Source (en español Código Abierto) es el término con el cual se conoce al software distribuido y desarrollado libremente. Se utilizó por primera vez en 1998 por usuarios de la comunidad del software libre, tratando de utilizarlo como reemplazo del ambiguo nombre original en inglés del software libre (Free Software). El código abierto tiene un punto de vista más orientado a los beneficios prácticos de compartir el código que a las cuestiones morales y/o filosóficas las cuales destacan en el llamado software libre.

 El objetivo es contar con un sistema integro y completo, que ofrezca el mismo potencial de un sistema comercial, y normalmente proporciona un numero mayor de herramientas, aplicaciones y software en general, mayor que los sistemas operativos comerciales.
Open Source
La idea detrás de Open Source es que cuando los programadores en internet pueden modificar y redistribuir el código fuente de un programa, éste evoluciona, se desarrolla y mejora
los usuarios logran adaptarlo a sus necesidades, corrigen sus errores a una increible velocidad, mayor a la aplicada en el desarrollo de software convencional o cerrado, dando como resultado el desarrollo de un mejor software.

El movimiento Open Source (Open Source Initiative)[1] tiene un decálogo[2] que debe cumplir un código para poder llamarse "Open Source":
§  Libre redistribución: el software debe poder ser regalado o vendido libremente.
§  Código fuente: el código fuente debe estar incluido u obtenerse libremente.
§  Trabajos derivados: la redistribución de modificaciones debe estar permitida.
§  Integridad del código fuente del autor: las licencias pueden requerir que las modificaciones sean redistribuidas sólo como parches.
§  Sin discriminación de personas o grupos: nadie puede dejarse fuera.
§  Sin discriminación de áreas de iniciativa: los usuarios comerciales no pueden ser excluidos.
§  Distribución de la licencia: deben aplicarse los mismos derechos a todo el que reciba el programa.
§  La licencia no debe ser específica de un producto: el programa no puede licenciarse solo como parte de una distribución mayor.
§  La licencia no debe restringir otro software: la licencia no puede obligar a que algún otro software que sea distribuido con el software abierto deba también ser de código abierto.
§  La licencia debe ser tecnológicamente neutral: no debe requerirse la aceptación de la licencia por medio de un acceso por clic de ratón o de otra forma específica del medio de soporte del software.

Free Software v/s Open Source
Open Source como Free Software son movimientos sociales, preocupados sobre lo que puedes o debes poder hacer (derechos) con los programas (software).
Tienen diferencias filosóficas pero pocas diferencias practicas.
§  Free Software tiene una visión moral, “el software debería ser libre”, Open Source tiene una visión practica, “el software es mejor si su código es abierto“.
§  Free Software se refiere a Software Libre (no software gratis) y está basado en fundamentos morales. Las libertades a la que apunta son a que puedas utilizar un programa pero también puedas copiarlo, distribuirlo, estudiarlo o modificarlo sin restricción. En su visión, limitar estas libertades es inmoral.
§  Open Source se refiere al acceso al código del software, el distribuir el código fuente del software promueve, según los defensores del open source, software de mejor calidad, más confiable, seguro y creativo, el cual evoluciona de forma más rápida y orientado a satisfacer las necesidades de sus usuarios.
Ejemplos
Sistemas Operativos Open Source:
§  Ubuntu, Fedora, Mint, openSUSE, Debian, PCLinuxOS, Mandriva entre otros.[4]
§  Android de google, desarrollados para smartphones y tablets.

Linux
El pingüino Tux, mascota de Linux.
Linux es un Sistema Operativo que se desarrolló a partir del kernel creado por Linus Torvalds y que incluye un gran número de programas y bibliotecas que hacen posible su utilización. Estos programas y blibliotecas son posibles gracias al proyecto GNU. Linux se distribuye bajo licencia GNU General Public License, por lo tanto el código fuente es accesible por cualquier persona.
BSD UNIX
Beastie, mascota de FreeBSD Es un sistema opeativo derivado de UNIX junto con aportes de la Universidad de California en Berkeley.

. En los primeros años de UNIX, se autorizó a algunas universidades como la Universidad de California en Berkeley a utilizar el código fuente y adaptarlo a sus necesidades, es así como Berkeley lo utilizo para investigaciones en materias de sistemas operativos.
Características de BSD UNiX
§  Multiusuario
§  Multitarea
§  Multiproceso
§  Compatible con POSIX
§  Multiplataforma: amd64, ARM, i386, ia64, MIPS, pc98, ppc, sparc64,xbox
Darwin
Darwin es el sistema que subyase en Mac OS X, la cual lanzó su versión final el año 2001 para funcionar el computadoras Macintosh.
Integra el micronúcleo Mach y servicios de sistema operativo de tipo Unix basados en BSD 4.4, los cuales proporcionan estabilidad y mejor rendimiento en comparación con anteriores versiones de Mac OS.
Es una evolución del sistema operativo NEXSTEP, que se basa en el nucleo Mach 2.5 y BSD 4.3, el cual fue desarrollado po NeXT en 1989 para correr en ordenadores NeXT, llamados "black boxes xxx"
Características de Darwin
Darwin proporciona a Mac OS X prestaciones modernas como:
§  Multiplataforma: PowerPC,x86,ARM
§  Memoria Protegida.
§  Multitarea por desalojo o expulsiva.
§  Gestión avanzada de memoria.
§  Multiproceso Simétrico
Kernel
El Kernel o núcleo de linux es el corazón de este sistema operativo, es el encargado de software y hadware puedan trabajar en conjunto.
Entre sus funciones está:
§  Administrar la memoria para todos los programas y procesos en ejecución.
§  Administrar el tiempo de procesador que los programas y procesos en ejecucion utilizan.
§  Se encarga de permitir cómodamente a los periféricos/elementos del ordenador.



CÓDIGO ABIERTO: el principal atractivo es que las aplicaciones son gratis,














El software propietario (también llamado privativo de código cerrado o software no libre

cualquier programa informático en el que el usuario tiene limitaciones para usarlo, modificarlo o redistribuirlo, que destaca la manutención de la reserva de derechos sobre el uso, modificación o redistribución del software.

  • 4. CARACTERISTICAS DEL SOFTWARE PROPIETARIO:
  • Este software no te pertenece no puedes hacerle ningún tipo de modificación al código fuente.
  • No puedes distribuirlo sin el permiso del propietario.
  • El usuario debe realizar cursos para el manejo del sistema como tal debido a su alta capacidad de uso.
  • Este posee accesos para que el usuario implemente otro tipo de sistema en el.
  • Cualquier ayuda en cuanto a los antivirus.

  • 5. VENTAJAS DEL SOFTWARE PROPIETARIO
  • Propiedad y decisión de uso del software por parte de la empresa.
  • Soporte para todo tipo de hardware.
  • Mejor acabado de la mayoría de aplicaciones.
  • Las aplicaciones número uno son propietarias.
  • Menor necesidad de técnicos especializados.
  • El ocio para ordenadores personales está destinado al mercado propietario.
  • Mayor mercado laboral actual.
  • Mejor protección de las obras con copyright.
  • Unificación de productos.
  • Facilidad de adquisición (puede venir preinstalado con la compra del PC, o encontrarlo fácilmente en las tiendas).
  • Existencia de programas diseñados específicamente para desarrollar una tarea.
  • Las empresas que desarrollan este tipo de software son por lo general grandes y pueden dedicar muchos recursos, sobretodo económicos, en el desarrollo e investigación.
  • Interfaces gráficas mejor diseñadas.
  • Más compatibilidad en el terreno de multimedia y juegos.
  • Mayor compatibilidad con el hardware.
  • 6. DESVENTAJAS DEL SOFTWARE PROPIETARIO:
  • No existen aplicaciones para todas las plataformas (Windows y Mac OS).
  • Imposibilidad de copia.
  • Imposibilidad de modifación.
  • Restricciones en el uso (marcadas por la licencia).
  • Imposibilidad de redistribución.
  • Por lo general suelen ser menos seguras.
  • El coste de las aplicaciones es mayor.
  • El soporte de la aplicación es exclusivo del propietario.
  • El usuario que adquiere software propietario depende al 100% de la empresa propietaria.


viernes, 22 de noviembre de 2013

Tipos y diferencias de conectores DVI y VGA

VGA:



El conector VGA es el utilizado normalmente para conectar la salida de nuestra tarjeta gráfica al monitor.

Aunque son conocidos como VGA (Video Graphics Array), realmente los conectores actuales no trabajan bajo el estándar VGA, que permite mostrar hasta un máximo de 256 colores de una paleta de 262.144 colores, con una resolución máxima de 720x480 y un refresco máximo de 70Hz, sino SVGA (Super Video Graphics Array), que permite unas resoluciones y paletas de colores muchísimo mayores, tal y como estamos acostumbrados.

Estos dos sistemas utilizan el mismo tipo de conector, denominado VGA D-sub de 15 pines.

Pero este tipo de conector, que para monitores del tipo CRT van bastante bien, no son capaces de suministrar la suficiente calidad de imagen cuando se trata de monitores TFT u otros tipos similares. Esto es debido a que, sea el tipo de tarjeta gráfica que sea, la conexión con el monitor se realiza de forma analógica. La profundidad de color se define mediante voltaje simple, por lo que en teoría un monitor SVGA o VGA (del tipo CRT o de Tubo de Rayos Catódicos) no tiene prácticamente límite en cuanto al número de colores que es capaz de mostrar.
El brillo de cada color se determina mediante una variación en la intensidad del rayo mientas este se desplaza por la línea correspondiente.

Pero esto no ocurre del mismo modo cuando se trata de in monitor TFT, que como sabemos son los que se utilizan mayoritariamente en la actualidad. Y esto es así porque este tipo de pantallas no utilizan este sistema de rayos catódicos, sino que trabajan con una matriz de píxeles, y hay que asignar un valor de brillo a cada uno de ellos.

Esto se hace mediante el decodificador, que toma muestras de entrada de voltajes a intervalos regulares. Este sistema plantea un problema cuando tanto la fuente emisora (en este caso la tarjeta) como la receptora (en este caso el monitor TFT) son digitales, ya que obliga a tomar este muestreo del centro mismo del píxel, para evitar de este modo ruidos y distorsiones del color. Esto provoca, entre otras cosas, que tanto el tono como el brillo de un píxel se pueda ver afectado por los de los píxeles que hay a su alrededor.


 Como funciona:
La Tarjeta Gráfica y la RAM trabajan la información de video en formato digital, pero necesitan un conversores de digital a analógico (DAC), el llamado RAMDAC. Un conversor que transforma la señal digital con que trabaja la tarjeta gráfica en una salida analógica que pueda entender el monitor y que se transmite por el VGA.

En la conversión se pierde información de los píxeles y por tanto calidad, pero dependerá de el RAMDAC de la tarjeta gráfica que sea mayor o menor está perdida.



El DVI:


Con el conector DVI esto ya se hace de otra manera porque es capaz de transmitir los datos de forma digital. Así que cada bit es el encargado de darle la información a cada pixel de nuestro TFT. No hace falta decir que para que nuestra pantalla tenga su máxima calidad debemos usarla en su resolución nativa, eso es, la resolución en la que cada pixel de salida corresponde con su pixel en pantalla. Además, el DVI está libre de los ruidos y distorsiones inherentes en las señales analógicas.
Cada enlace DVI consiste de cuatro pares trenzados de hilos (uno con un código de color de rojo, azul y verde y uno para una señal de reloj) para transmitir 24 bits por píxel. La señal del reloj es prácticamente la misma que la de la señal de vídeo analógica, mientras que la imagen es enviada electrónicamente línea por línea con intervalos de corte que separa cada línea y el marco, sin ningún tipo de compresión.
 

Los tipos de DVI existentes son tres:

DVI-D transmite sólo digital.
DVI-A transmite sólo analógica.
DVI-I transmite tanto señal digital como analógica.
A su vez, los tipos DVI-D y DVI-I pueden ser duales (DL o Dual Link), es decir, que pueden admitir dos enlaces. Como imaginaréis lo normal es que usemos el DVI-D dual link.



jueves, 21 de noviembre de 2013

ESTRUCTURA DE LAS COMPUTADORAS

Estructura de una computadora 

Una máquina electrónica, humanamente programada es capaz de realizar a gran velocidad cálculos matemáticos y procesos lógicos. También es capaz de leer, almacenar, procesar y escribir información con mucha rapidez y exactitud.

El computador responde a una estructura mecánica capaz de desarrollar actividades que, de hacerlas el hombre, demandarían el uso de capacidades intelectuales. La idea de computador como Cerebro Electrónico es adecuada si se entiende como un mecanismo que debe ser programado para cada tarea que se quiere realizar.

Una computadora no debe considerarse como una máquina capaz de realizar únicamente operaciones aritméticas, aunque éste fue su primera aplicación real, es capaz de realizar trabajos con símbolos, números, textos, imágenes, sonidos y otros, describiendo así el concepto de multimedia.




A qué llamamos estructura de una pc?

Hablar de "estructura" significa hablar de organización, distribución y combinación de elementos que llegan a formar parte de un sistema. Un sistema de cómputo consta de dos grupos de componentes inseparables: 

*Software 

* Hardware





Hardware:

Al grupo de elementos físicos se le conoce como hardware. La identificación y elección de los componentes físicos de una computadora personal pueden parecer tareas muy difíciles, pero podemos simplificar su estudio clasificándolos como dispositivos de procesamiento, de almacenamiento y de entrada y salida de datos. También existen dispositivos mixtos, que hacen estas dos últimas funciones. 


Software:

Los programas o "software" son como la "inteligencia" de la computadora, y por lo tanto una herramienta útil para diversas actividades. El software se divide en tres categorías básicas: software de sistema, programas de aplicaciones y utilerías. 
Los datos de trabajo que en la actividad cotidiana se van generando y grabando en discos u otro medio de almacenamiento, también pueden considerarse como software.

La estructura de una computadora representa un sistema que integra diferentes componentes organizados en diferentes niveles independientes unos de otro en cuanto a su estructura, pero conservando la interdependencia desde el nivel más alto hasta el nivel más bajo en torno a su funcionamiento.

La estructura general de las computadoras considera la siguientes funciones:

El procesamiento de datos. Se encarga de transforma y dar tratamiento a los datos aplicando funciones básicas como son las aritméticas y las lógicas.


El almacenamiento de los datos. Mientras se esta llevando a cabo la función de procesamiento, los datos son almacenados temporalmente en localidades de memoria cuyo contenido cambia continuamente debido a la gran cantidad de cálculos que realiza el procesador.

La entrada y salida de datos. Cuando los datos son recibidos o enviados desde algún dispositivo conectado a la computadora se conoce como proceso de Entrada / Salida de datos; y el dispositivo de referencia es conocido como periférico; cuando los datos son movidos a grandes distancias, el proceso es conocido como Comunicación de Datos. Se da internamente en la computadora y de manera dinámica con el medio ambiente operativo constituido por dispositivos que sirven como fuente o destino de los datos.

La función de control. Se efectúa en todo momento sobre el procesamiento, el almacenamiento y movimiento de datos, la unidad de control administra los recursos de la computadora, así como partes funcionales en respuesta a los programas residentes en la computadora.

En resumen la computadora ejecuta la función de movimiento de datos entre dispositivos, transferencia de datos desde un dispositivo o una línea de comunicación a otra, escritura o lectura de datos en dispositivos y consecuentemente el procesamiento de datos que esto representa.

La estructura interna de una computadora cuatro componentes principales:

Unidad de Central de proceso (CPU)

Controla la operación de la computadora y ejecuta funciones de procesamiento de datos, se le conoce generalmente como procesador.

Unidad de Control

Controla las operaciones del CPU.

Unidad Aritmética Lógica (ALU)

Ejecuta las funciones de procesamiento de    datos.

Memoria Principal 

Almacenamiento de datos de manera temporal.

Registros

Provee almacenamiento en el CPU.

Entrada / Salida (E/S)

 Movimiento de datos entre la computadora y su medio ambiente externo.

Sistema de Interconexión

Son mecanismos que permiten la comunicación con la unidad de control, la unidad aritmética y lógica y los registros.


Como se puede apreciar las computadoras puden dividirse en tres bloques principales que son:

Unidades o dispositivos de entrada.

Mediante estos, se introducen datos, comandos y/o programas en la CPU, permiten introducir datos externos a la computadora para su posterior procesamiento. Estos datos pueden provenir de distintas fuentes, algunos dispositivos de entrada más utilizados son:

-Teclado
-Ratón o Mouse
-Escáner
-Lector de código de barras
-Joystick (controles para juegos)
-Micrófono
-WebCam
-Tableta digitalizadora
-Pantalla sencibles al tacto
-La Unidad Central de Proceso.

La Unidad Central de Proceso o Central Processing Unit(CPU), Interpreta las instrucciones y procesa los datos contenidos en los programas de la computadora, es el cerebro, es donde se realizan la mayoría de los cálculos. La unidad de lógica/aritmética (ALU), que realiza operaciones aritméticas y lógicas. La unidad de control (CU), que extrae instrucciones de la memoria, las descifra y ejecuta, llamando a la ALU cuando es necesario.

Unidades o dispositivos de salida

Permiten ver los resultados de los cálculos o de las manipulaciones de datos de la computadora, reciben información que es procesada por la CPU y la reproducen para que sea entendible, algunos dispositivo de salida de uso común son:

-Monitores
-Impresoras
-Bocinas
-Auriculares
-Graficadores

 


miércoles, 20 de noviembre de 2013

BIOS (Sistema básico de entrada y salida)


Historia de la BIOS

El primer término BIOS apareció en el sistema operativo CP/M, y describe la parte de CP/M que se ejecutaba durante el arranque y que iba unida directamente al hardware (las máquinas de CP/M usualmente tenían un simple cargador arrancable en la ROM, y nada más). La mayoría de las versiones de MS-DOS tienen un archivo llamado "IBMBIO.COM" o "IO.SYS" que es análogo al CP / M BIOS.El sistema operativo CP/M (Control Program/Monitor) es un sistema operativo desarrollado por Gary Kildall para el microprocesador Intel 8080 (los Intel 8085 y Zilog Z80 pueden ejecutar directamente el código del 8080, aunque lo normal es que se entregara el código recompilado para el microprocesador de la máquina). Se trata del sistema operativo más popular entre las computadoras personales en los años 1970. Aunque fue modificado para ejecutarse en un IBM PC, el hecho que IBM eligiera MS-DOS, al fracasar las negociaciones con Digital Research, hizo que el uso de CP/M disminuyera hasta hacerlo desaparecer.En los primeros diseños del PC, la ROM BIOS ocupaba solo 40 KB. En esa época, el rango de direcciones de memoria que podía manejarse era 00000-FFFFFh (un máximo de 1.048.576 Bytes = 1 MB). El sistema operativo tenía un peso de 640 KB del DOS (en realidad 655.360 Bytes), que en la época parecían más que suficientes para los programas y el propio Sistema Operativo. Tenga en cuenta que el IBM-PC original carecía de disco duro; un disquete de 5 1/4" de 160 KB (que podía contener un máximo de 64 ficheros!!), era opcional. En los primeros sistemas operativos para PC (como el DOS), el BIOS todavía permanecía activo tras el arranque y funcionamiento del sistema operativo. El acceso a dispositivos como la disquetera y el disco duro se hacían a través del BIOS. Sin embargo, los sistemas operativos SO más modernos realizan estas tareas por sí mismos, sin necesidad de llamadas a las rutinas del BIOS.El aumento de complejidad de los periféricos, junto con la insaciable demanda de velocidad, ha motivado que empiece a invertirse la tendencia. Cada vez más, el Sistema Operativo rehace los punteros situados por el BIOS en la tabla de vectores de interrupción IDT (2.4) para que señalen a sus propias rutinas. Por ejemplo, las controladoras gráficas actuales utilizan modos de operación impensables en las primitivas adaptadoras gráficas de color CGA, y los servicios de control utilizan rutinas específicas, de 32 o 64 bits, que explotan las nuevas posibilidades de los dispositivos. En este sentido, los servicios BIOS nativos solo son utilizados cuando se necesita compatibilidad hacia atrás. Por ejemplo, si arrancamos un equipo Pentium con un disquete DOS por razones de mantenimiento o diagnóstico.  En este caso, algunas de las características más avanzadas del sistema, como la controladora gráfica serán utilizadas en forma muy rudimentaria, mientras que otras, como los puertos USB, infrarrojos, firewire, etc. no serán accesibles. La razón es que tales "Servicios" sencillamente no existen en la BIOS tradicional.


Que es la BIOS? 


BIOS son siglas en inglés: "Basic Input-Output System" o Sistema básico de entrada y salida; ésta viene incorporada con el chip de la placa base, es decir, es un programa que no está en el disco rígido. La BIOS almacena la información básica de la computadora. Guarda los datos del día y la hora, el caché, las configuraciones de los discos, las claves (passwords) de protección, etc. Ésta valiosísima información al apagar la computadora no se pierde pues utilizan memorias tipo CMOS (Complementary Metal Oxide Semiconductor) y para no perder los datos, viene incluido una pequeña pila que puede durar años y se recarga cuando la computadora es encendida.


¿Nunca se han preguntado dónde se almacenan todos los datos que aparecen apenas encendemos la computadora? Todos se encuentran en la BIOS; en esa primer pantalla podremos ver el fabricante y el número de versión de la BIOS, lo que nos servirá para actualizarla y además varios datos más como velocidad y tipo de microprocesador, memoria RAM, etc. Todos esos mensajes se denominan POST (Power-On Self Test)

.



Como funciona la BIOS?

La BIOS podríamos decir que se conforma en dos partes:

Por un lado tenemos el Hardware, que no es ni mas ni menos que un chip, en el cual se almacena el Software del mismo (esta seria la segunda parte).

Dentro de este pequeño chip, el software cumple con la función de administrar, y reconocer los dispositivos que tenemos instalados, (Discos rígidos, Placa de Audio, Vídeo, Red, USB, módem, etc.).
También identifica el flujo de corriente que necesitara cada dispositivo, para funcionar correctamente. Estos flujos de corriente son denominados IRQ1, IRQ2… etc. Los números de cada IRQ serán correspondientes a cada dispositivo que integren nuestra placa base.

Cuando compramos una placa base nueva, la BIOS viene configurada por defecto. A medida que vamos incorporando diversos dispositivos, esta se encargara de asignar las correspondientes IRQ a cada uno.

A veces suele suceder que dos dispositivos distintos compartan una misma IRQ, motivo por el cual se genera un conflicto, y uno u ambos dispositivos dejan de funcionar. En esta parte ya deberemos intervenir nosotros para asignar una IRQ distinta, que permita el funcionamiento de los dispositivos. 

Tipos de BIOS:


En la actualidad, existen dos tipos de BIOS: los EEPROM y los EEPROM Flash ROM
EEPROM 

Son los más antiguos y sólo pueden ser actualizados a través de un aparato especial que se encarga de reescribirlos, por lo que deben ser retirados de la motherboard. 

EEPROM Flash ROM 

Por el contrario, los EEPROM Flash ROM poseen la ventaja de poder ser actualizados por intermedio de una aplicación informática, por lo que la mayoría de motherboards modernas, desde la llegada de los Pentium al mercado, incorporan este tipo de BIOS

Cabe destacar que si bien la BIOS se encuentra pre-instalado en la motherboard, en general son desarrollados por otras empresas, tales como American Megatrends, General Software, Insyde Software, y Phoenix Technologies, que crean la BIOS adecuada según los requerimientos de los fabricantes de placas madres. 





sábado, 2 de noviembre de 2013

MOTHERBOARD

La placa base, también conocida como placa madre o tarjeta madre (del inglés motherboard o mainboard) es una tarjeta de circuito impreso a la que se conectan los componentes que constituyen la computadora u ordenador. Es una parte fundamental a la hora de armar una PC de escritorio o portátil. Tiene instalados una serie de circuitos integrados, entre los que se encuentra el circuito integrado auxiliar, que sirve como centro de conexión entre el microprocesador, la memoria de acceso aleatorio (RAM), las ranuras de expansión y otros dispositivos.

Va instalada dentro de una caja o gabinete que por lo general está hecha de chapa y tiene un panel para conectar dispositivos externos y muchos conectores internos y zócalos para instalar componentes dentro de la caja.

La placa base, además, incluye un firmware llamado BIOS, que le permite realizar las funcionalidades básicas, como pruebas de los dispositivos, vídeo y manejo del teclado, reconocimiento de dispositivos y carga del sistema operativo.





Jacqueline Castellon



FUENTE DE ALIMENTACION

La fuente de alimentación es la encargada de proporcional la energía eléctrica para que los elementos funcionen.

Cuando abrimos el gabinete de la PC, podemos encontrarnos con dos tipos de fuentes: AT o ATX (AT eXtended). 

La fuente AT tiene tres tipos de conectores de salida. El primer tipo, del cual hay dos, son los que alimentan la placa madre. Los dos tipos restantes, de los cuales hay una cantidad variable, alimentan a los periféricos no enchufados en un slot de la placa madre, como ser unidades de discos duros, unidades de CD-ROM, disqueteras, etc. 

La fuente ATX es muy similar a la AT, pero tiene una serie de diferencias, tanto en su funcionamiento como en los voltajes entregados a la placa madre. La fuente ATX consta en realidad de dos partes: una fuente principal, que corresponde a la vieja fuente AT (con algunos agregados), y una auxiliar. Como hace el de la fuente AT, envía una señal a la fuente principal, indicándole que se encienda o apague, permaneciendo siempre encendida la auxiliar, y siempre conectada la alimentación de permitiendo poder realizar conexiones/desconexiones por software. 

En las conexiones de fuentes AT, existía un problema: tenían dos conectores para enchufar en la placa madre, dando lugar a confusiones y cortocircuitos, ello se soluciona dejando en el centro los cables que tienen los conectores. 

Sin embargo, en las fuentes ATX al existir un solo conector a enchufar en la placa madre, se evitaba ese problema, ya que existe una sola forma de conectarlo. 






       
Jacqueline Castellon

LA MEMORIA RAM

La memoria de acceso aleatorio (en inglesrandom-access memory) se utiliza como memoria de trabajo para el sistema operativo, los programas y la mayoría del software. Es allí donde se cargan todas las instrucciones que ejecutan el procesador y otras unidades de cómputo. Se denominan «de acceso aleatorio» porque se puede leer o escribir en una posición de memoria con un tiempo de espera igual para cualquier posición, no siendo necesario seguir un orden para acceder a la información de la manera más rápida posible. Durante el encendido del computador, la rutina POST verifica que los módulos de memoria RAM estén conectados de manera correcta. En el caso que no existan o no se detecten los módulos, la mayoría de tarjetas madres emiten una serie de pitidos que indican la ausencia de memoria principal. Terminado ese proceso, la memoria BIOS puede realizar un test básico sobre la memoria RAM indicando fallos mayores en la misma.

La tecnología de memoria ram usa una señal de sincronización para realizar las funciones de lectura-escritura de manera que siempre está sincronizada con un reloj del bus de memoria, a diferencia de las antiguas memorias FPM y EDO que eran asíncronas. Hace más de una década toda la industria se decantó por las tecnologías síncronas, ya que permiten construir integrados que funcionen a una frecuencia superior a 66 MHz.





Jacqueline Castellon

martes, 29 de octubre de 2013

DISPOSITIVOS MAGNETICOS DE ALMACENAMIENTO


Los dispositivos magnéticos son aquellos dispositivos de almacenamiento de datos en los que se utilizan propiedades magnéticas de los materiales para almacenar información digital.

Cinta magnética: Está formada por una cinta de material plástico recubierta de material ferromagnético. Sobre dicha cinta se registran los caracteres en formas de combnaciones de puntos, sobre pistas paralelas al eje longitudinal de la cinta. Estas cintas son soporte de tipo secuencial, esto supone un inconveniente puesto que para acceder a una información determinada se hace necesario leer todas las que le preceden, con la consiguiente perdida de tiempo.

Tambores Magnéticos: Están formados por cilindros con material magnético capaz de retener información. Esta se graba y lee mediante un cabezal cuyo brazo se mueve en la dirección del eje de giro del tambor. El acceso a la información es directo y no secuencial.

Disco Duro: Son en la actualidad el principal subsistema de almacenamiento de información en los sistemas informáticos. Es un dispositivo encargado de almacenar información de forma persistente en un ordenador, es considerado el sistema de almacenamiento más importante del computador y en él se guardan los archivos de los programas.

Diskette o Disco flexible: Un disco flexible o también diskette (en inglés floppy disk), es un tipo de dispositivo de almacenamiento de datos formado por una pieza circular de un material magnético que permite la grabación y lectura de datos, fino y flexible (de ahí su denominación) encerrado en una carcasa fina cuadrada o rectangular de plástico. Los discos, usados usualmente son los de 3 ½ o 5 ¼ pulgadas, utilizados en ordenadores o computadoras personales, aunque actualmente los discos de 5 ¼ pulgadas están en desuso.



Noemi Branca

DISCO RIGIDO


Un disco duro está formado por varios discos apilados sobre los que se mueve una pequeña cabeza magnética que graba y lee la información.

Los dispositivos o unidades de almacenamiento de datos son componentes que leen o escriben datos en medios o soportes de almacenamiento, y juntos conforman la memoria o almacenamiento secundario de la computadora.










Estos dispositivos realizan las operaciones de lectura o escritura de los medios o soportes donde se almacenan o guardan, lógica y físicamente, los archivos de un sistema informático.

Los discos duros tienen una gran capacidad de almacenamiento de información, pero al estar alojados normalmente dentro de la computadora (discos internos), no son extraíbles fácilmente. Para intercambiar información con otros equipos (si no están conectados en red) se tienen que utilizar unidades de disco, como los disquetes, los discos ópticos (CD, DVD), los discos magneto-ópticos, memorias USB o las memorias flash, entre otros.

El disco duro almacena casi toda la información que manejamos al trabajar con una computadora. En él se aloja, por ejemplo, el sistema operativo que permite arrancar la máquina, los programas, archivos de texto, imagen, vídeo, etc. Dicha unidad puede ser interna (fija) o externa (portátil), dependiendo del lugar que ocupe en el gabinete o caja de computadora.

Noemi Branca