domingo, 8 de diciembre de 2013

Sistemas Operativos

Sistemas Operativos

Sistema de operativos código abierto, cerrado, libre

el sistema operativo "cerrado" es un sistema propietario que no permite la instalación más allá de las que te permite el fabricante al comprarlo (como win). Es un sistema (mejor dicho software) que no se puede desarmar para ver, tocar o mejorar y no se puede usar tecnología inversa para ver como es adentro. 

Los sistemas (software) abierto los hay de 2 tipos y ambos son gratis y de libre distribución (GNU). 
Dentro de estos soft se encuentra el que no se puede abrir y el que se puede abrir y cambiar, usar, instalar y distribuir libremente todo lo que uno quiera, tal como es LINUX "abierto y gratis" (Open source que significa "código abierto") Puedes bajar la compilación linux o bajar la base del programa linux y re-escribirlo todo y distribuirlo libremente.
 
El código abierto no se puede vender (el que lo invento lo prohíbe y es el único requisito para el uso. Lo que se vende de Linux son "compilaciones" o sea, alguien (una empresa) compila y escribe programas para Linux y agrupa todo con un instalador en un cd o dvd y vende la compilación no el sistema operativo que está prohibido venderlo. 

Un sistema operativo propietario es aquel que no cede el código de programación con el que está escrito el programa para ejecutar, copiar, distribuir, estudiar, cambiar y mejorar el mismo. El software propietario puede o no ser gratuito. Las empresas que hacen software propietario ganan dinero vendiendo directamente ese software y también con el asesoramiento y mantenimiento de esas redes hechas con software propietario. 

Historia

Los primeros sistemas (1945-1955) eran grandes máquinas operadas desde la consola maestra por los programadores. Durante la década siguiente (1955-1965) se llevaron a cabo avances en el hardware: lectoras de tarjetas, impresoras, cintas magnéticas, etc. Esto a su vez provocó un avance en el software: compiladores, ensambladores, cargadores, manejadores de dispositivos, etc.
A finales de los años 1980, una computadora Commodore Amiga equipada con una aceleradora Video Toaster era capaz de producir efectos comparados a sistemas dedicados que costaban el triple. Un Video Toaster junto a Lightwave ayudó a producir muchos programas de televisión y películas
El problema principal de los primeros sistemas era la baja utilización de los mismos, la primera solución fue poner un operador profesional que lo manejase, con lo que se eliminaron las hojas de reserva, se ahorró tiempo y se aumentó la velocidad.
Para ello, los trabajos se agrupaban de forma manual en lotes mediante lo que se conoce como procesamiento por lotes (batch) sin automatizar.
egún fue avanzando la complejidad de los programas, fue necesario implementar soluciones que automatizaran la organización de tareas sin necesidad de un operador. Debido a ello se crearon los monitores residentes: programas que residían en memoria y que gestionaban la ejecución de una cola de trabajos.
Un monitor residente estaba compuesto por un cargador, un Intérprete de comandos y un Controlador (drivers) para el manejo de entrada/salida.
Los avances en el hardware crearon el soporte de interrupciones y posteriormente se llevó a cabo un intento de solución más avanzado: solapar la E/S de un trabajo con sus propios cálculos, por lo que se creó el sistema de búfers con el siguiente funcionamiento:
  • Un programa escribe su salida en un área de memoria (búfer 1).
  • El monitor residente inicia la salida desde el buffer y el programa de aplicación calcula depositando la salida en el buffer 2.
  • La salida desde el buffer 1 termina y el nuevo cálculo también.
  • Se inicia la salida desde el buffer 2 y otro nuevo cálculo dirige su salida al buffer 1.
  • El proceso se puede repetir de nuevo.
Los problemas surgen si hay muchas más operaciones de cálculo que de E/S (limitado por la CPU) o si por el contrario hay muchas más operaciones de E/S que cálculo (limitado por la E/S).




Windows





La primera versión de Microsoft Windows, versión 1.0, lanzada en noviembre de 1985, compitió con el sistema operativo de Apple. Carecía de un cierto grado de funcionalidad y logró muy poca popularidad. Windows 1.0 no era un sistema operativo completo; más bien era una extensión gráfica de MS-DOS. Windows versión 2.0 fue lanzado en noviembre de 1987 y fue un poco más popular que su predecesor. Windows 2.03 (lanzado en enero de 1988) incluyó por primera vez ventanas que podían solaparse unas a otras. El resultado de este cambio llevó a Apple a presentar una demanda contra Microsoft, debido a que infringían derechos de autor.
Windows versión 3.0, lanzado en 1990, fue la primera versión de Microsoft Windows que consiguió un amplio éxito comercial, vendiendo 2 millones de copias en los primeros seis meses. Presentaba mejoras en la interfaz de usuario y en la multitarea. Recibió un lavado de cara en Windows 3.1, que se hizo disponible para el público en general el 1 de marzo de 1992. El soporte de Windows 3.1 terminó el 31 de diciembre de 2001.
En julio de 1993, Microsoft lanzó Windows NT basado en un nuevo kernel. NT era considerado como el sistema operativo profesional y fue la primera versión de Windows en utilizar la Multitarea apropiativa. Windows NT más tarde sería reestructurado para funcionar también como un sistema operativo para el hogar, con Windows XP.
El 24 de agosto de 1995, Microsoft lanzó Windows 95, una versión nueva para los consumidores, y grandes fueron los cambios que se realizaron a la interfaz de usuario, y también se utiliza multitarea apropiativa. Windows 95 fue diseñado para sustituir no solo a Windows 3.1, sino también de Windows para Workgroups y MS-DOS. También fue el primer sistema operativo Windows para utilizar las capacidades Plug and Play. Los cambios que trajo Windows 95 eran revolucionarios, a diferencia de los siguientes, como Windows 98 y Windows Me. El soporte estándar para Windows 95 finalizó el 31 de diciembre de 2000 y el soporte ampliado para Windows 95 finalizó el 31 de diciembre de 2001.
El siguiente en la línea de consumidor fue lanzado el 25 de junio de 1998, Microsoft Windows 98. Sustancialmente fue criticado por su lentitud y por su falta de fiabilidad en comparación con Windows 95, pero muchos de sus problemas básicos fueron posteriormente rectificados con el lanzamiento de Windows 98 Second Edition en 1999. El soporte estándar para Windows 98 terminó el 30 de junio de 2002, y el soporte ampliado para Windows 98 terminó el 11 de julio de 2006.
Como parte de su línea «profesional», Microsoft lanzó Windows 2000 en febrero de 2000. La versión de consumidor tras Windows 98 fue Windows Me (Windows Millennium Edition). Lanzado en septiembre de 2000, Windows Me implementaba una serie de nuevas tecnologías para Microsoft: en particular fue el «Universal Plug and Play». Durante el 2004 parte del código fuente de Windows 2000 se filtró en internet, esto era malo para Microsoft porque el mismo núcleo utilizado en Windows 2000 se utilizó en Windows XP.
En octubre de 2001, Microsoft lanzó Windows XP, una versión que se construyó en el kernel de Windows NT que también conserva la usabilidad orientada al consumidor de Windows 95 y sus sucesores. En dos ediciones distintas, «Home» y «Professional», el primero carece por mucho de la seguridad y características de red de la edición Professional. Además, la primera edición «Media Center» fue lanzada en 2002, con énfasis en el apoyo a la funcionalidad de DVD y TV, incluyendo grabación de TV y un control remoto. El soporte estándar para Windows XP terminó el 14 de abril de 2009. El soporte extendido continuará hasta el 8 de abril de 2014.
En abril de 2003, Windows Server 2003 se introdujo, reemplazando a la línea de productos de servidor de Windows 2000 con un número de nuevas características y un fuerte enfoque en la seguridad; lo cual fue seguido en diciembre de 2005 por Windows Server 2003 R2.
El 30 de enero de 2007, Microsoft lanzó Windows Vista. Contiene una serie de características nuevas, desde un shell rediseñado y la interfaz de usuario da importantes cambios técnicos, con especial atención a las características de seguridad. Está disponible en varias ediciones diferentes y ha sido objeto de muy severas críticas debido a su patente inestabilidad, sobredemanda de recursos de hardware, alto costo, y muy alta incompatibilidad con sus predecesores, hecho que no ocurría con éstos.
El 22 de octubre de 2009, Microsoft lanzó Windows 7. A diferencia de su predecesor, Windows Vista, que introdujo a un gran número de nuevas características, Windows 7 pretendía ser una actualización incremental, enfocada a la línea de Windows, con el objetivo de ser compatible con aplicaciones y hardware que Windows Vista no era compatible. Windows 7 tiene soporte multi-touch, un Windows shell rediseñado con una nueva barra de tareas, conocido como Superbar, un sistema red llamado HomeGroup, y mejoras en el rendimiento sobre todo en velocidad y en menor consumo de recursos.
El 26 de octubre de 2012, Microsoft lanzó Windows 8. Por primera vez desde Windows 95, el botón Inicio ya no está disponible en la barra de tareas, aunque la pantalla de inicio está aún activa haciendo clic en la esquina inferior izquierda de la pantalla y presionando la tecla Inicio en el teclado. Presenta un Explorador de Windows rediseñado, con la famosa interfaz ribbon de Microsoft Office. Según Microsoft han vendido 60 millones de licencias, aunque ha recibido muchas críticas por parte de los usuarios. Se conservan la gran mayoría de las características de su predecesor, Windows 7, con excepción de la nueva interfaz gráfica y algunos cambios menores.





Linux



En abril de 1991,2 Linus Torvalds, de 21 años, empezó a trabajar en unas simples ideas para un núcleo de un sistema operativo. Comenzó con un intento por obtener un núcleo de sistema operativo gratuito similar a Unix que funcionara con microprocesadores Intel 80386. Luego, el 26 de agosto de 1991, Torvalds escribió en el grupo de noticias comp.os.minix:9
"Estoy haciendo un sistema operativo (gratuito, sólo un hobby, no será nada grande ni profesional como GNU) para clones AT 386(486). Llevo en ello desde abril y está empezando a estar listo. Me gustaría saber su opinión sobre las cosas que les gustan o disgustan en minix, ya que mi SO tiene algún parecido con él.[...] Actualmente he portado bash(1.08) y gcc(1.40), y parece que las cosas funcionan. Esto implica que tendré algo práctico dentro de unos meses..."
Después de esto, muchas personas ayudaron con el código. En septiembre de 1991 se lanzó la versión 0.01 de Linux. Tenía 10.239 líneas de código. En octubre de ese año(1991), se lanzó la versión 0.02 de Linux; luego, en diciembre se lanzó la versión 0.11(1991). Esta versión fue la primera en ser self-hosted (autoalbergada). Es decir, Linux 0.11 podía ser compilado por una computadora que ejecutase Linux 0.11, mientras que las versiones anteriores de Linux se compilaban usando otros sistemas operativos. Cuando lanzó la siguiente versión, Torvalds adoptó la GPL como su propio boceto de licencia, la cual no permitía su redistribución con otra licencia que no sea GPL.
Se inició un grupo de noticias llamado alt.os.linux y el 19 de enero de 1992 se publicó en ese grupo el primer post. El 31 de marzo, alt.os.linux se convirtió en comp.os.linux. XFree86, una implementación del X Window System, fue portada a Linux, la versión del núcleo 0.95 fue la primera en ser capaz de ejecutarla. Este gran salto de versiones (de 0.1x a 0.9x) fue por la sensación de que una versión 1.0 acabada no parecía estar lejos. Sin embargo, estas previsiones resultaron ser un poco optimistas: desde 1993 a principios de 1994, se desarrollaron 15 versiones diferentes de 0.99 (llegando a la versión 0.99r15).
El 14 de marzo de 1994, se lanzó Linux 1.0.0, que constaba de 176.250 líneas de código. En marzo de 1995 se lanzó Linux 1.2.0, que ya estaba compuesto de 310.950 líneas de código.
Su código fuente está disponible para descarga en el sitio web oficial: http://www.kernel.org

lunes, 12 de agosto de 2013

T.P. Nº4 "El Motherboard"

T.P Nº4 "El Motherboard"


El motherboard tambien llamado mainboard o placa madre o placa principal es un circuito impreso construido con un material aislante  (fibra de vidrio, pertinax, etc.) cubierto con un material conductor (cobre) por el cual se dibuja las pistas conductoras que conectan entre si los componentes que constituyen tambien los contactos de los componentes que iran soldados sobre ella. Con la tecnologia actual se construyen circuitos impresos que pueden tener varias capas.
Si analizamos la PC desde el punto de vista de su funcionamiento y aplicaciones no quedaran dudas de que el elemento central es el microprocesador, pero si analizamos la computadora personal como concepto el componente a destacar es el motherboard.
Las PC nacieron con el concepto de arquitectura modular que quiere decir que cualquier fabricante puede producir sus partes si respeta las normas y estandares para cada una de ellas. Por lo tanto los motherboard tambien gozaron de esa arquitectura modular o tecnologia abierta para que terceros produzcan elementos que se puedan incorporar al equipo: placas de video y sonido, placas de red, sintonizadoras y capturadoras de TV, etc.
De esta manera surgieron los llamados clones de PC sin marca especifica, cuyos componentes proceden de diferentes fabricantes algunos de ellos especialzados solo en determinados componentes.



Elementos de un motherboard






1)Conectores:

Los motherboard que respetan la norma ATX (advanced technology extended) incorpora un grupo de conectores estandar para las funciones localizadas sobre el motherboard (on board)


2) Zócalo del microprocesador (socket):

Aqui se coloca el microprocesador, la medida y la cantidad de contactos varían segun la marca y el modelo del microprocesador usador. Posee ademas los anclajes para el disipador y el ventilador (cooler).

Zócalo de microprocesador amd




Zócalo de microprocesador intel




3)Conectores de memoria

Aquí se colocan los módulos de memoria RAM dinámica que reciben los mismos nombres que las memorias: Simn, Dinm, Rimm.











Zocalo tipo RIMM

4)Conectores IDE

Aquí se conectan los discos rigidos. Hasta 2 dispositivos (disco rígido y/o lector grabador de cd/dvd). Esta interface es obsoleta y esta siendo reemplazada por la conexión SATA


Conector IDE




5)Conectores SATA:

Esta es la interface que se usa actualmente para los discos rígidos.La velocidad de transferencia era de 130MB/S y los sucesivos desarrollos de la interface SATA tiene velocidades de:
SATA1:150MB/S
SATA2:300MB/S
SATA3:600MB/S


Conector SATA





6)Conector de alimentación 

A travez de este conector  el motherboard recibe las diferentes tensiones de alimentación provenientes de la fuente.Las antiguas fuentes tenian conectores tipo AT,reemplazadas hoy en dia por los conectores tipo ATX




7)Bios (Basic Input Output System)

Este chip aloja el software básico del motherboard que le permite al sistema operativo comunicarse con el hardware.Entre otras cosas el bios controla la forma en que el motherboard maneja la memoria,los discos duros y mantiene el reloj en hora.El bios contiene 2 tipos de memoria:una memoria ROM (Memoria de lectura solamente,actualmente tipo flash) y una memoria RAM (Memoria de lectura  y escritura) llamada setup que cuyo contenido se mantiene debido a la alimentación eléctrica de una pila.El contenido del setup puede ser modificado por el usuario y se accede apretando la tecla F2 o Supr (Depende del bios) en el momento del arranque








8)Chipset North Bridge(Puente Norte):

Es el encargado de controlar el bus de datos de procesador y la memoria. También administra el bus AGP





El chipset se encuentra debajo






9)Conectores al Gabinete:

Aquí se conectan los comandos e indicadores que   se encuentran en el frente del gabinete: Led de encendido, el Led de funcionamiento de acceso a datos del disco rígido el botón de encendido el botón de reset.



















10)Chipset South bridge Puente sur:

Es la parte del chipset encargada de brindar conectividad. Controla los discos rígidos el bus PCI y los puertos USB





11)Pila:

Mantiene el Setup en todas todas la maquina CR2032






12)Slot PCI:

En estas ranuras se insertan las placas de sonido, de video, etc.(las placas de video se conectan a los spots PCI Express)



13)Slot AGP :

Antiguamente se conectaba la placa de video. Ya en Desuso.









Factor de forma

Atendiendo a la estructura modular o arquitectura abierta los fabricantes de MB deben atenerse al cumplimiento de los estándares y normas de la industria del hardware. Además cuando surge un elemento nuevo como por ejemplo el puerto USB todos los fabricantes deberán cumplir con las normas y características constructivas de este puerto para no quedar fuera del negocio del hardware.
El factor de forma (Form Factor) indica las dimensiones y el tamaño de la placa lo que se vincula con el gabinete específico. También establece la posición de los anclajes y la distribución de los componentes (Slot de Expansión, Ubicación de los bancos de memorias, del zócalo del microprocesador, etc.).
Los formatos obsoletos son los AT y el BABY AT los formatos en uso son los ATX, Micro ATX y 
Flex ATX. 

Formato Baby AT





Formato ATX






Formato micro ATX




Formato Flex ATX





El puente norte (North Bridge)

El puente norte se encarga de soportar al microprocesador en el manejo de los buses y la memoria. Justamente sirve de conexión entre el motherboard, el microprocesador y la memoria, por eso su nombre de puente. Generalmente las innovaciones tecnologicas como el soporte de memoria DDR y el bus FSB son soportados por este chip.
La tecnologia de fabricacion del NorthBridge es muy avanzado y es comparable a la del propio micropocesador. Por ejemplo si debe encargarse el bus frontal de alta velocidad debera manejar frecuencias de 400 hasta 800 MHz. Por eso este chip suele llevar un disipador y en algunos casos tambien un ventilador.

El puente sur (South Bridge)

El puente sur es el segundo chip de importancia y controla los buses de entrada y salida de datos para perifericos y tambien determina el tipo de soporte IDE, la cantidad de puertos USB y el bus PCI. Tambien controlan los puertos Serial ATA (SATA) y el audio de 6 canales.

El  puente norte y el puente sur constituyen el llamado Chipset:
La conexión entre los puentes norte y sur se realizaba a través del bus PCI, pero recientemente algunos fabricantes de motherboard han empezado a usar buses especiales dedicados que permiten una transferencia de datos directa y sin interferencia entre los dos puentes. El problema es que la vieja conexión PCI tiene un ancho de banda de solo 133 Mb/s que quedo insuficiente para la velocidad de los dispositivos actuales. Solamente teniendo en cuenta que los discos rígidos actuales rondan los 100 Mb/s y si le agregamos las  transferencias de las placas que estén colocadas en los slots PCI y los puertos USB 2.0 vemos que el bus PCI se encuentra congestionado. La mejor solución entonces fue conectar los puentes con un bus dedicado. Por ejemplo el chipset i810 de Intel incorporo un pequeño bus de 8 bit (1 byte) a 266 MHz



Buses

Los buses, constituyen físicamente pistas de cobre de los circuitos impresos que intercomunican eléctricamente los dispositivos montados sobre el motherboard (microprocesador, memoria RAM, BIOS, Puertos, etc.).
Los buses de un motherboard se pueden dividir en:
Bus de datos, Bus de direcciones y Bus de sistema.
El bus de datos transporta los datos o instrucciones en forma de pulsos electricos desde y hacia el microprocesador. Dependiendo del sistema y del microprocesador, este bus tendrá una cantidad de líneas llamada  ancho del bus. Las primeras PC tenían buses de 8 bits, y en la actualidad pueden llegar a 64 bits
El bus de direcciones determina cuál es el origen y el destino de los datos. Cada dispositivo y cada posición de memoria  tiene una dirección dentro de lo que llama mapa de memoria,  que es su identificación en el sistema. Las direcciones no se pueden repetir. Lo descripto anteriormente se refiere a los elementos que efectivamente están montados sobre la placa.
El sistema puede componerse además por dispositivos que se conectan a la placa mediante zócalos o ranuras de expansión (Slots) que también deben interconectarse. Entonces las placas de expansión que se conectan en estas ranuras  se integran al sistema. Cada tipo de ranura de expansión se conecta  a un bus particular con características propias. Por ejemplo los slots PCI, AGP y PCI-Express.


En las PC modernas sólo se mantienen los: PCI y el PCI-Express.


Parámetros de los buses:

-Ancho del bus (Se mide en bits).
-Velocidad máxima de transferencia de datos (Se mide en bits/segundo)
-Frecuencia del clock (Se mide en Hertz)
-Cantidad máxima de dispositivos permitidos.



Bus PCI (Peripheral Component Interconnect)

El bus PCI posee un un conector (SLOT) blanco de aproximadamente 8,5 centímetros de largo. Tiene una  ranura  para la correcta colocación de las placas. Este bus fue desarrollado por Intel, sometido al consenso del resto de la industria que lo adoptó como estándar. Es uno de los más utilizados en la actualidad y posee las siguientes características:
-Cantidad máxima de dispositivos: 10
-Ancho de bus: seleccionable 32 ó 64 bits
Frecuencia de clock: 33 MHz
-Velocidad de transferencia máxima de datos:
133 MB/Seg a 32 bits
266 MB/Seg a 64 bits
Actualmente en este bus se conectan placas de expansión como: placas de red, placas de sonido, sintonizadoras de TV, modem telefónico, placas de adquision de datos, placas de ampliacion de puertos USB, etc




Bus frontal: Front-side Bus


Antiguamente sólo existía un bus de datos, y el microprocesador accedía a la RAM y a la memoria caché a través de él. Para optimizar el desempeño, Intel introdujo el DIB (Dual Independent Bus) donde el microprocesador accedía a la memoria caché L2 por el backside bus y a la RAM por el front side bus.
Regularmente, la velocidad del microprocesador se determina aplicando un factor de multiplicación  a la frecuencia del FSB. Por ejemplo, si aplicamos un factor de multiplicación de 5 a un FSB que está trabajando a 100 MHz, se obtiene una velocidad del microprocesador de 500 MHz, este procedimiento se conoce como overclocking.
En las viejas máquinas, se realizaba cambiando de posición un puente (Jumper) en el motherboard. Actualmente se hace desde el setup.




Bus ISA (Industry Standart Architecture)

Este bus es obsoleto. Algunas de sus características son:
-Ancho de bus: 32 bits
-Velocidad máxima de transferencia: 16 MB/seg
-Frecuencia de clock 8 MHz





Bus PCI-Express (X-Press)

El bus PCI-Express se desarrolló entre los años 1999 y 2001. Durante su desarrollo tuvo varios nombres como System I/O, Infiniband, 3GIO (Third Generation Input Output) y ARAPAHOE. Finalmente, el desarrollo terminó en manos del PCI-SIG . (Peripherical Connection Interconnect – Special Interest Group).que es una organización sin fines de lucro que tiene como asociados a empresas fabricantes de hardware
El bus PCI-Express presenta mejores característica de flexibilidad y velocidad, como son la transmisión en serie y el sistema de conexión punto a punto.



La transmisión en serie es una de las interfaces más antiguas de las PC (RS232) que sigue presente en los motherboard actuales, aunque está prácticamente en desuso frente a interfaces externas superiores como la USB. La transmisión de datos en el bus PCI-Express justamente se realiza en serie es decir que los datos van pasando bit a bit uno detrás del otro, mientras que en las interfaces en paralelo, los datos viajan por varios cables a la vez. Actualmente se privilegia el uso de interfaces serie porque utilizan menos tensión, generan menos interferencias eléctricas y permiten alcanzar mayores velocidades sin pérdida de información, además son más simples, lo que permite un diseño más compacto.
La conexión punto a punto quiere decir que la comunicación entre un dispositivo y otro es directa, lo que permite un aprovechamiento total del ancho de banda puesto que cada placa tendrá su ancho en particular y se comunicará con otra sin que nada interfiera su camino.
Por ejemplo, dijimos que el puerto PCI estándar o convencional tiene todas los conectores conectados en paralelo por lo que comparten el ancho de banda del bus (133MB/s).
En el sistema PCI-Express la conexión de los conectores de expansión con el chipset se realiza mediante un módulo llamado switch (Muchas veces incluido en el puente sur del chipset).
Podemos comparar el bus PCI-Express y el PCI haciendo una analogía con los concentradores de red: Switch y Hub. En un Hub, los datos que quieren pasar de una máquina a otra deben pasar por todas las que estén entre un puerto y otro hasta que encuentren el destino correcto, mientras que un Switch tiene una “inteligencia” que le permite saber la dirección de cada máquina conectada y envía los datos directamente desde una hacia la otra sin pasar por ningún otro puerto.
La conexión básica PCI-Express (x1) consta solamente de 4 cables, dos para la transmisión de datos en un sentido y dos para el otro. Cada uno de ellos trabaja a una frecuencia de 2 GHz, lo que brinda una tasa de transferencia de datos de 2Gbps (256MB/s). Debemos considerar que esos 256MB/s se transmiten en un solo sentido y que si contamos también el otro, alcanzamos los 512 MB/s, una cifra nada despreciable teniendo en cuenta los 133MB/s del puerto PCI.
Gracias a esta característica de contar simplemente con cuatro cables es que ahora los diseños del motherboard son más sencillos y compactos.
La ranura PCI-Express x4 tiene cuatro pares de conductores , la PCIExpress x 8, 8 pares y la PCI-Express x16 tiene 16 pares de conductores .
Actualmente en el SLOT PCI express se conectan además de placas de video otros dispositivos que requieren alta velocidad de transferencia como discos SSD, puertos USB 3.0, etc











Almacenamiento físico y virtual de datos e informacion.Unidad de medidas.Soportes y dispositivos



Almacenamiento fisico 

En un sistema de cómputo es evidente que existe la necesidad por parte de los usuarios y aplicaciones de almacenar datos en algún medio, a veces por periodos largos y a veces por instantes. Cada aplicación y cada usuario debe tener ciertos derechos con sus datos, como son el poder crearlos y borrarlos, o cambiarlos de lugar; así como tener privacidad contra otros usuarios o aplicaciones. El subsistema de archivos del sistema operativo se debe encargar de estos detalles, además de establecer el formato físico en el cual almacenará los datos en discos duros, cintas o discos flexibles. Debe ser conocido por todos que tradicionalmente la información en los sistemas modernos se almacena en discos duros, flexibles y unidades de disco óptico, y en todos ellos se comparten algunos esquemas básicos para darles formato físico: las superficies de almacenamiento son divididas en círculos concéntricos llamados "pistas" y cada pista se divide en "sectores". A la unión lógica de varias pistas a través de varias superficies "paralelas" de almacenamiento se les llama "cilindros", los cuales son inspeccionados al momento de lectura o escritura de datos por las respectivas unidades físicas llamadas "cabezas". Las superficies de almacenamiento reciben el nombre de "platos" y generalmente están en movimiento rotatorio para que las cabezas tengan acceso a las pistas que los componen. Los datos se escriben a través de los sectores en las pistas y cilindros modificando las superficies por medio de las cabezas.

Unidades de medida de dispositivo:


Tarjetas perforadas: Este dispositivo de almacenamiento se utilizaba en la década de los 50 y podía almacenar hasta 960 b. Las perforaciones de las tarjetas representaban los ceros (0) y los espacios no perforados, los unos (1). El almacenamiento de un solo archivo MP3 de 2 minutos hubiera obligado a utilizar más de 40 000 tarjetas.

Cinta magnética: Una bobina de cinta magnética equivalía a 10.000 tarjetas perforadas. En cuanto al tamaño, podía tener una longitud de entre 2.400 y 4.800 pies. Una bobina podía almacenar alrededor de 5-10 MB.

Disquetes de 5,25″: Este sistema de almacenamiento surgió por la demanda existente de un dispositivo de almacenamiento portátil para los PC domésticos. Uno de estos discos podía almacenar hasta 1,2 MB.

Disquetes de 3,5″: los discos de 3,5″ alcanzaron gran popularidad por su combinación de carácter portátil y durabilidad. También podían contener 1,44 MB.
CD: Los CD aparecieron en la década de los 90. Su capacidad de almacenamiento es 450 veces superior a la de un disquete.
Discos ZIP: Uno solo de estos discos puede almacenar entre 100 y 750 MB. Se convirtieron en el dispositivo de almacenamiento preferido a finales de la década de los 90.
Unidades Flash: Estos dispositivos aparecen en los inicios del nuevo milenio y pueden almacenar entre 8 MB y 256 GB. Supusieron un paso de gigante en el avance de la tecnología de almacenamiento de usuario final.
Discos duros portátiles: Un disco duro portátil puede almacenar entre 25 GB y 4 TB y son útiles para hacer backups de archivos de gran tamaño, como los de contenido de vídeo.
Almacenamiento en cloud: Las opciones de almacenamiento actuales son prácticamente ilimitadas gracias al almacenamiento en cloud, disponible desde cualquier dispositivo con conexión a Internet.
Cintas perforadas: La cinta perforada es un método obsoleto de almacenamiento de datos, que consiste en una larga tira de papel en la que se realizan agujeros para almacenar los datos. Fue muy empleada durante gran parte del siglo XX para comunicaciones con teletipos, y más tarde como un medio de almacenamiento de datos para miniordenadores y máquinas herramienta tipo CNC.
Disco optico: Un disco óptico es un formato óptico de almacenamiento de datos digital, que consiste en un disco circular en el cual la información se codifica, se guarda y almacena, haciendo unos surcos microscópicos con un láser sobre una de las caras planas que lo componen.


Almacenamiento virtual





La memoria virtual es una técnica de administración de la memoria real que permite al sistema operativo brindarle al software de usuario y a sí mismo un espacio de direcciones mayor que la memoria real o física.
La mayoría de los ordenadores tienen cuatro tipos de memoria: registros en la CPU, la memoria caché (tanto dentro como fuera del CPU), la memoria física (generalmente en forma de RAM, donde la CPU puede escribir y leer directa y razonablemente rápido) y el disco duro que es mucho más lento, pero también más grande y barato.
Muchas aplicaciones requieren el acceso a más información (código y datos) que la que se puede mantener en memoria física. Esto es así sobre todo cuando el sistema operativo permite múltiples procesos y aplicaciones ejecutándose simultáneamente. Una solución al problema de necesitar mayor cantidad de memoria de la que se posee consiste en que las aplicaciones mantengan parte de su información en disco, moviéndola a la memoria principal cuando sea necesario. Hay varias formas de hacer esto. Una opción es que la aplicación misma sea responsable de decidir qué información será guardada en cada sitio (segmentación), y de traerla y llevarla. La qdesventaja de esto, además de la dificultad en el diseño e implementación del programa, es que es muy probable que los intereses sobre la memoria de dos o varios programas generen conflictos entre sí: cada programador podría realizar su diseño teniendo en cuenta que es el único programa ejecutándose en el sistema. La alternativa es usar memoria virtual, donde la combinación entre hardware especial y elsistema operativo hace uso de la memoria principal y la secundaria para hacer parecer que el ordenador tiene mucha más memoria principal (RAM) que la que realmente posee. Este método es invisible a los procesos. La cantidad de memoria máxima que se puede hacer ver que hay tiene que ver con las características del procesador. Por ejemplo, en un sistema de 32 bits, el máximo es 232, lo que da 4096 Megabytes (4 Gigabytes). Todo esto hace el trabajo del programador de aplicaciones mucho más fácil, al poder ignorar completamente la necesidad de mover datos entre los distintos espacios de memoria.

Fuente: http://mariamirosafiel.blogspot.com.ar/2012/03/almacenamiento-virtual.html

            http://www.docentestic.es/index.php/almacenamiento.html

Unidad de medida

Los datos se miden en bits.A continuación se muestra una tabla de medidas que hay:

1 bit
1 Byte = 8 bits
1 KiloByte (KB) = 1,024 Bytes
1 MegaByte (MB) = 1,024 KB
1 GigaByte (GB) = 1,024 MB
1 TeraByte (TB) = 1,024 GB
1 PetaByte (PB) = 1,024 TB
1 ExaByte (EB) = 1,024 PB
1 ZettaByte (ZB) = 1,024 EB
1 YottaByte (YB) = 1,024 ZB







martes, 28 de mayo de 2013

T.P.Nº 3: Instalaciones eléctricas (uso informático)

T.P.Nº3:Instalaciones eléctricas (uso informático)


1-Conceptos de tensión,corriente,resistencia y potencia eléctrica.Unidades de medición


La tensión eléctrica es una magnitud física que cuantifica la diferencia de potencial eléctrico entre dos puntos. También se puede definir como el trabajo por unidad de carga ejercido por el campo eléctrico sobre una partícula cargada para moverla entre dos posiciones determinadas. Su unidad de medida es el volt.

La corriente o intensidad eléctrica es el flujo de carga por unidad de tiempo que recorre un material. Se debe al movimiento de los electrones en el interior del material. Su unidad se denomina amper.

Se le llama resistencia eléctrica a la mayor o menor oposición que tienen los electrones para desplazarse a través de un conductor. La unidad de resistencia en el sistema internacional es el ohm, que se representa con la letra griega omega (Ω), en honor al físico alemán George Ohm, quien descubrió el principio que ahora lleva su nombre.

La potencia eléctrica es la relación de paso de energía de un flujo por unidad de tiempo; es decir, la cantidad de energía entregada o absorbida por un elemento en un tiempo determinado. Su unidad de medida es el watt.

2-Ley de Ohm

La ley de Ohm dice que la intensidad de corriente que circula por un circuito dado, es directamente proporcional a la tensión aplicada e inversamente proporcional a la resistencia del mismo


3-Leyes de kirchhoff


Ley de nodos o primera ley de Kirchhoff 

En cualquier nodo, la suma de las corrientes que entran en ese nodo es igual a la suma de las corrientes que salen. De forma equivalente, la suma de todas las corrientes que pasan por el nodo es igual a cero.

Ley de mallas de Kirchhoff o Segunda ley de Kirchhoff

En un lazo cerrado, la suma de todas las caídas de tensión es igual a la tensión total suministrada. De forma equivalente, la suma algebraica de las diferencias de potencial eléctrico en un lazo es igual a cero.


4-Calcular la resistencia total de los siguientes circuitos




a) Rt=2 ohm + 5 ohm=7 ohm
b) Rt=3 ohm + 4 ohm + 6 ohm=13 ohm
c) Rt=10 ohm*5 ohm/10 ohm + 5 ohm=50 ohm/15 ohm=3,33 ohm
d) Rt=20 ohm*20 ohm/20 ohm + 20 ohm= 400 ohm/ 40 ohm=10 ohm
e) Rt=1/(1/20 ohm + 1/30 ohm + 1/40 ohm)=9,2308 ohm


5-Resolver los siguientes circuitos analíticamente.Verificar verificar mediante un programa de simulación de circuitos




a)       I=1 A
            Vr1=2 v
            Vr2=3 v
            Vr3=5 v
            Pt=10 w


b)        I1=1,059 A
             I2= 631,6 mA
             I3=375 mA
             Pt=12,708 W
             Vr1= 6,3 V


c)          I1=3,63 A
               I2=1,2 A
               I3=2,4 A
               Pt=43,56 W

6-Determinar cual debe ser la potencia de una fuente de alimentación para una CPU con Motherboard con Intel i5, placa de vídeo 1gb, 4 gb memoria RAM, Disco rígido 1 Tb 7200 rpm, lectora/grabadora cd/dvd


CPU = 480 W
Lecto-grabadora cd/dvd = 10 W
Placa de Video = 20-200 W
Monitor = 20-40 W
Impresora = 7-25 W y 3 W sin usarse
Microprocesador = 75 W
Disco duro = 25 W
Motherboard 5 nucleos aprox. = 100 W

7-Determinar cual es la potencia consumida por un equipo compuesto por: CPU del ejercicio anterior, un monitor LED de 19 " y una impresora laser blanco y negro


                Componente              Potencia 

  • CPU del ejercicio anterior        =            200 w
  • Potencia del monitor LED 19"  =            19 w
  • Impresora laser                        =            214 w (activo) / 1,w (en reposo)
  • El consumo de la CPU es de    =            433 w (con los componentes activos) / 220 w (con las                                                               impresoras en reposo)

8-¿Que es una UPS (Uninteruptible power supply)? ¿Para que se usa? Indique costo aprox. para una sola PC y el costo para 10 PCS. Autonomia minima 10 minutos




Un  UPS (uninterruptible power supply), es un dispositivo que gracias a sus baterías u otros elementos almacenadores de energía, puede proporcionar energía eléctrica por un tiempo limitado y durante un apagón a todos los dispositivos que tenga conectados. Otras de las funciones que se pueden adicionar a estos equipos es la de mejorar la calidad de la energía eléctrica que llega a las cargas, filtrando subidas y bajadas de tensión y eliminando armónicos de la red en el caso de usar corriente alterna.

Los UPS dan energía eléctrica a equipos llamados cargas críticas, como pueden ser aparatos médicos, industriales o informáticos que, como se ha mencionado anteriormente, requieren tener siempre alimentación y que ésta sea de calidad, debido a la necesidad de estar en todo momento operativos y sin fallos (picos o caídas de tensión).

El costo aprox. de una UPS para una sola Pc es de $500
El costo aprox. de una UPS para 10 Pcs es de $5000


9-¿Que es una pinza amperométrica? Usos, principios de funcionamiento, marcas, modelos y precios



La pinza amperimétrica es un tipo especial de amperímetro  que permite obviar el inconveniente de tener que abrir el circuito en el que se quiere medir la corriente para colocar un amperímetro clásico.

Para utilizar una pinza, hay que pasar un solo conductor a través de la sonda, si se pasa más de un conductor a través del bucle de medida, lo que se obtendrá será la suma vectorial de las corrientes que fluyen por los conductores y que dependen de la relación de fase entre las corrientes.
Si la pinza se cierra alrededor de un cable paralelo de dos conductores que alimenta un equipo, en el que obviamente fluye la misma corriente por ambos conductores (y de sentido o fase contrarios), nos dará una lectura de cero.

El funcionamiento de la pinza se basa en la medida indirecta de la corriente circulante por un conductor a partir del campo magnético o de los campos que dicha circulación de corriente que genera. Recibe el nombre de pinza porque consta de un sensor, en forma de pinza, que se abre y abraza el cable cuya corriente queremos medir.



MarcaModeloPrecio
ZurichZr-287110
Clamp meterJA-2010230
BrymenBm-128m1375
BrymenBm-1621290
Yu Fon8020385



10-El cuerpo humano y la corriente eléctrica.Efectos sobre el cuerpo para distintos valores de corriente.Medidas para la seguridad eléctrica.


Intensidad, IDuración, tEfectos en el organismo
I < 1 mACualquieraUmbral de la percepción
1 < mA < I < 25 mACualquieraMúsculos agarrotados
25 mA < I < 50 mAVarios segundosAumento de la presión arterial, Tetanización (espasmos), Inconsciencia, Posible fibrilación ventricular
50 mA < I < 200 mAt < ciclo cardíacoContracción muscular, Posible fibrilación ventricular
t > ciclo cardíacoPosible fibrilación ventricular, Inconsciencia
I > 200 mAt < ciclo cardíacoPosible fibrilación ventricular, Inconsciencia
t > ciclo cardíacoQuemaduras, Inconsciencia, Paro cardíaco (reversible)


Los daños que la corriente eléctrica puede causar si pasa a través del cuerpo humano dependen de dos magnitudes:
  • El valor de la intensidad de corriente.
  • El tiempo durante el cual el cuerpo está expuesto al paso de la corriente.

En la tabla aparecen los daños ocasionados en el organismo por algunas combinaciones de intensidad de corriente y tiempo de exposición.


MEDIDAS PREVENTIVAS

• Toda instalación, conductor o cable eléctrico debe considerarse conectado y bajo tensión.
• Antes de trabajar en ellos se debe comprobar la ausencia de voltaje con un equipo adecuado.
• Sólo realizar trabajos eléctricos con personal capacitado y autorizado para ello. La reparación y modificación de instalaciones y equipos eléctricos es única y exclusivamente competencia del personal idóneo en la instalación y/o mantenimiento eléctrico.
• En el uso de un equipo o aparato hogareño, al notar cosquilleos o el menor chispazo se debe proceder a su inmediata desconexión y posterior notificación.
• En el trabajo con máquinas o herramientas alimentadas por electricidad es preciso aislarse utilizando equipos y medios de protección individual certificados.
• Todo equipo eléctrico, herramienta, transformador u otro con tensión superior a la de seguridad (24 voltios) o que carezca de características dieléctricas de doble aislamiento, estará unido o conectado a tierra y en todo caso tendrá protección con interruptor diferencial.
• Se debe comprobar periódicamente el correcto funcionamiento de las protecciones.
• No utilizar cables prolongadores que no dispongan de conductor de protección para la alimentación de receptores con toma de tierra. 
• Todo cable de alimentación eléctrica conectado a una toma de corriente debe estar dotado de conector normalizado.
• Las herramientas eléctricas se deben desconectar al terminar su empleo o en la pausa de trabajo.
• Será terminantemente prohibido desconectar máquinas, herramientas, o cualquier equipo eléctrico, tirando del cable. Siempre se debe desconectar tomando la ficha enchufe-conector y tirando de ella. En el caso industrial, se debe disponer de llaves de corte fijas.
• En el caso de una persona electrizada no la toque directamente. 

11- ¿Para que sirve el terminal de conexión a tierra? ¿A que dispositivo se conecta? ¿Como se conecta?


La toma de tierra se emplea en las instalaciones eléctricas para evitar el paso de corriente al usuario por un fallo del aislamiento de los conductores activos.
Es una unión de todos los elementos metálicos que, mediante cables de sección suficiente entre las partes de una instalación y un conjunto de electrodos, permite la desviación de corrientes de falta o de las descargas de tipo atmosférico, y consigue que no se pueda dar una diferencia de potencial peligrosa en los edificios, instalaciones y superficie próxima al terreno

12-Protección mediante disyuntor diferencial.Explicar el principio de funcionamiento.



Un interruptor diferencial, también llamado disyuntor por corriente diferencial o residual, es un dispositivo electromecánico que se coloca en las instalaciones eléctricas de corriente alterna, con el fin de proteger a las personas de las derivaciones causadas por faltas de aislamiento entre los conductores activos y tierra o masa de los aparatos.
En esencia, el interruptor diferencial consta de dos bobinas, colocadas en serie con los conductores de alimentación de corriente y que producen campos magnéticos opuestos y un núcleo o armadura que mediante un dispositivo mecánico adecuado puede accionar unos contactos.

Funcionamiento

Si nos fijamos en la Figura 1, vemos que la intensidad (I1) que circula entre el punto a y la carga debe ser igual a la (I2) que circula entre la carga y el puntob (I1 = I2) y por tanto los campos magnéticos creados por ambas bobinas son iguales y opuestos, por lo que la resultante de ambos es nula. Éste es el estado normal del circuito.


Si ahora nos fijamos en la Figura 2, vemos que la carga presenta una derivación a tierra por la que circula una corriente de fuga (If), por lo que ahora I2 = I1 - If y por tanto menor que I1.
Los generadores de corriente alterna, o los transformadores existentes en el camino del suministro (generalmente trifásicos) tienen conectado a tierra su terminal neutro, y por tanto se cierra circuito eléctrico en cuanto se pone en contacto cualquiera de los hilos de fase con tierra. Es aquí donde el dispositivo desconecta el circuito para prevenir electrocuciones, bien porque hay derivación de corriente hacia la toma de tierra que deben tener todos los aparatos metálicos, o bien porque hay contacto eléctrico con tierra a través del cuerpo de una persona o por cualquier otra causa.
La diferencia entre las dos corrientes de los hilos del suministro es la que produce un campo magnético resultante, que no es nulo y que por tanto producirá una atracción sobre el núcleo N, desplazándolo de su posición de equilibrio, provocando la apertura de los contactos C1 y C2 e interrumpiendo el paso de corriente hacia la carga, en tanto no se rearme manualmente el dispositivo una vez se haya corregido la avería o el peligro de electrocución.
Figura 1.  
Figura 2.  




13-Protección mediante interruptor termomagnetico. Explicar el principio del funcionamiento.

Un interruptor magnetotérmico, interruptor termomagnético o llave térmica, es un dispositivo capaz de interrumpir la corriente eléctrica de un circuito cuando ésta sobrepasa ciertos valores máximos. Su funcionamiento se basa en dos de los efectos producidos por la circulación de corriente eléctrica en un circuito: el magnético y el térmico (efecto Joule). El dispositivo consta, por tanto, de dos partes, un electroimán y una lámina bimetálica, conectadas en serie y por las que circula la corriente que va hacia la carga.



Funcionamiento

Al circular la corriente por el electroimán, crea una fuerza que, mediante un dispositivo mecánico adecuado (M), tiende a abrir el contacto C, pero sólo podrá abrirlo si la intensidad I que circula por la carga sobrepasa el límite de intervención fijado.

Este nivel de intervención suele estar comprendido entre 3 y 20 veces la intensidad nominal (la intensidad de diseño del interruptor magnetotérmico) y su actuación es de aproximadamente unas 25 milésimas de segundo, lo cual lo hace muy seguro por su velocidad de reacción.

Esta es la parte destinada a la protección frente a los cortocircuitos, donde se produce un aumento muy rápido y elevado de corriente.
La otra parte está constituida por una lámina bimetálica (representada en rojo) que, al calentarse por encima de un determinado límite, sufre una deformación y pasa a la posición señalada en línea de trazos lo que, mediante el correspondiente dispositivo mecánico (M), provoca la apertura del contacto C.
Esta parte es la encargada de proteger de corrientes que, aunque son superiores a las permitidas por la instalación, no llegan al nivel de intervención del dispositivo magnético. Esta situación es típica de una sobrecarga, donde el consumo va aumentando conforme se van conectando aparatos.
Ambos dispositivos se complementan en su acción de protección, el magnético para los cortocircuitos y el térmico para las sobrecargas. Además de esta desconexión automática, el aparato está provisto de una palanca que permite la desconexión manual de la corriente y el rearme del dispositivo automático cuando se ha producido una desconexión. No obstante, este rearme no es posible si persisten las condiciones de sobrecarga o cortocircuito.
Incluso volvería a saltar, aunque la palanca estuviese sujeta con el dedo, ya que utiliza un mecanismo independiente para desconectar la corriente y bajar la palanca.
El dispositivo descrito es un interruptor magnetotérmico unipolar, por cuanto sólo corta uno de los hilos del suministro eléctrico. También existen versiones bipolares y para corrientes trifásicas, pero en esencia todos están fundados en los mismos principios que el descrito.
Se dice que un interruptor es de corte omnipolar cuando interrumpe la corriente en todos los conductores activos, es decir las fases y el neutro si está distribuido.
Las características que definen un interruptor termomagnético son el amperaje, el número de polos, el poder de corte y el tipo de curva de disparo (B,C,D,MA). (por ejemplo, Interruptor termomagnético C-16A-IV 4,5kA).

14-Buscar y pegar una tabla que relacione las secciones normalizadas de los cables y la carga máxima admisible para cada una de ellas.




15-Realizar un listado de materiales para la instalación eléctrica de 10 computadoras, 2 impresoras láser y 2 impresoras multifunción.Con UPS y protección termomagnetica y disyuntor diferencial. En 2 circuitos. Tomar como ejemplo el laboratorio donde se dicta esta materia. Dibujar un plano.


Se necesitan:

10 monitores
10 teclados
10 mouses
1 UPS de autonomía de 52 min para pequeñas y medianas empresas
10 cpu's con los cables correspondientes para cada periférico
2 Impresoras Láser
2 Impresoras Multifunción
1 Disyuntor diferencial
Toma corrientes de pared.
Cantidad de cable necesario por la distancia entre las cpu's. cable de 4 mm



16-Sabiendo que la sección mínima de cableado para tomas eléctricos es de 2,5 mm2 indicar si es suficiente para realizar la instalación del ejercicio anterior. Justificar.


Si porque la maxima carga admisible del cable es de 18 A y cada circuito consume 10 A.

17-A partir de las mediciones realizadas con una pinza amperometrica indicar cuanto es el consumo en watt del conjunto computadora + monitor y de cada uno de sus componentes por separado.


Una computadora vieja con monitor consume 0,74 A y sin monitor consume 0,27 A

0,74 A * 220 V = 165 W

Cpu sin monitor:

0,27 A * 220 V = 59,4 W

Monitor solo:

0,47 A * 220 V = 103,4 W



Una computadora nueva con monitor LCD consume 0,37 A y sin monitor consume 0,30 A

0,37 A * 220 V = 81,4 W

Cpu sin monitor:

0,30 A * 220 V = 66 W

Monitor solo:

0,07 A * 220 V = 15,4 Wa