viernes, 7 de octubre de 2016

Estaciones de Trabajo

En informática una estación de trabajo (en inglés workstation) es un computador de altas prestaciones destinado para trabajo técnico o científico. En una red de computadoras, es una computadora que facilita a los usuarios el acceso a los servidores y periféricos de la red. A diferencia de una computadora aislada, tiene una tarjeta de red y está físicamente conectada por medio de cables u otros medios no guiados con los servidores. Los componentes para servidores y estaciones de trabajo alcanzan nuevos niveles de rendimiento informático, al tiempo que ofrecen fiabilidad, compatibilidad, escalabilidad y arquitectura avanzada ideales para entornos multiproceso

Lo de las computadoras en general, las computadoras promedio de hoy en día son más poderosas que las mejores estaciones de trabajo de una generación atrás. Como resultado, el mercado de las estaciones de trabajo se está volviendo cada vez más especializado, ya que muchas operaciones complejas que antes requerían sistemas de alto rendimiento pueden ser ahora dirigidas a computadores de propósito general. Sin embargo, el hardware de las estaciones de trabajo está optimizado para situaciones que requieren un alto rendimiento y fiabilidad, donde generalmente se mantienen operativas en situaciones en las cuales cualquier computadora personal tradicional dejaría rápidamente de responder.



Actualmente las estaciones de trabajo suelen ser vendidas por grandes fabricantes de ordenadores como HP o Dell y utilizan CPUs x86-64 como Intel Xeon o AMD Opteronejecutando Microsoft Windows o GNU/Linux. Apple Inc. y Sun Microsystems comercializan también su propio sistema operativo tipo UNIX para sus workstations

Historia de las estaciones de trabajo


Tal vez la primera computadora que podría ser calificada como estación de trabajo fue la IBM 1620, una pequeña computadora científica diseñada para ser usada interactivamente por una sola persona sentada en la consola. Fue introducida en 1959. Una característica peculiar de la máquina era que carecía de cualquier tipo de circuito aritmético real. Para realizar la adición, requería una tabla almacenada en la memoria central con reglas decimales de la adición. Lo que permitía ahorrar en costos de circuitos lógicos, permitiendo a IBM hacerlo más económica. El nombre código de la máquina fue CADET, el cual algunas personas decían que significaba "Can't Add, Doesn't Even Try - No puede sumar, ni siquiera lo intenta". No obstante, se alquiló inicialmente por unos $1000 por mes.
Posteriormente llegaron el IBM 1130 (sucesor del 1620 en 1965), y el minicomputador PDP-8 de Digital Equipment Corporation.
Las primeras workstations basadas en microordenadores destinados a ser utilizados por un único usuario fueron máquina Lisp del MIT a comienzos de los años 70, seguidas de los Xerox Alto (1973), PERQ (1979) y Xerox Star (1981).

En los años 80 se utilizaron estaciones de trabajo basadas en CPU Motorola 68000 comercializadas por nuevas empresas como Apollo ComputerSun Microsystems y SGI. Posteriormente llegarían NeXT y otras.

La era RISC


Desde finales de los 80 se fueron sustituyendo por equipos generalmente con CPU RISC diseñada por el fabricante del ordenador, con su sistema operativo propietario, casi siempre una variante de UNIX (con excepciones no basadas en UNIX, como OpenVMS o las versiones de Windows NT para plataformas RISC). Aunque también hubo workstations con CPU Intel x86 ejecutando Windows NT como las Intergraph ViZual Workstation Zx y varios modelos Compaq y Dell.
Lista no exhaustiva de las workstation RISC más famosas de los años 90:

Fabricante
Modelos
Arquitectura CPU
Sistema operativo
Años
AlphaStation
1994-2006
9000
1991-2007
RS/6000
p-series
IntelliStation POWER
1993-2009
IRIS 4D
Indigo, Indy
Octane, O2 etc
1986-2006
SPARCStation
Ultra
Blade
1986-2008

Situación actual


En la actualidad se ha pasado de las arquitecturas RISC de IBM POWER, MIPS, SPARC, PA-RISC ó DEC Alpha a la plataforma x86-64 con CPUs Intel y AMD. Tras ser retiradas del mercado las Sun Ultra 25/45 en julio de 2008 y las IBM IntelliStation Power en enero de 2009, ya no se comercializan modelos con CPU RISC que tan comunes fueron en los 90.
Así pues actualmente se utiliza normalmente CPU Intel Xeon o AMD Opteron, pudiendo usarse otras CPUs x86-64 más comunes (como intel Core 2 o Core i5) en modelos más asequibles. Son comunes las GPU profesionales NVIDIA Quadro FX y ATI FireGL.
Lista de algunos fabricantes y modelos actuales:
·         Apple Inc.: Mac Pro
·         BOXX Technologies
·         Dell: DELL Precision
·         Fujitsu Siemens: CELSIUS
·         Hewlett-Packard: serie Z
·         Lenovo: ThinkStation
·         Silicon Graphics: Octane III
·         Sun Microsystems: Ultra 27
·         Workstation Specialists


Sistema operativo


Un sistema operativo (SO o, frecuentemente, OS —del inglés operating system—) es un programa o conjunto de programas de un sistema informático que gestiona los recursos de hardware y provee servicios a los programas de aplicación de software, ejecutándose en modo privilegiado respecto de los restantes (aunque puede que parte de él se ejecute en espacio de usuario).2
Nótese que es un error común muy extendido denominar al conjunto completo de herramientas sistema operativo,3 es decir, la inclusión en el mismo término de programas como el explorador de ficheros, el navegador web y todo tipo de herramientas que permiten la interacción con el sistema operativo. Otro ejemplo para comprender esta diferencia se encuentra en la plataforma Amiga, donde elentorno gráfico de usuario se distribuía por separado, de modo que, también podía reemplazarse por otro, como era el caso de directory Opus o incluso manejarlo arrancando con una línea de comandos y el sistema gráfico. De este modo, comenzaba a funcionar con elpropio sistema operativo que llevaba incluido en una ROM, por lo que era cuestión del usuario decidir si necesitaba un entorno gráfico para manejar el sistema operativo o simplemente otra aplicación. Uno de los más prominentes ejemplos de esta diferencia, es el núcleo Linux, usado en las llamadas distribuciones Linux, ya que al estar también basadas en Unix, proporcionan un sistema de funcionamiento similar. Este error de precisión, se debe a la modernización de la informática llevada a cabo a finales de los 80, cuando la filosofía de estructura básica de funcionamiento de los grandes computadores4 se rediseñó a fin de llevarla a los hogares y facilitar su uso, cambiando el concepto de computador multiusuario, (muchos usuarios al mismo tiempo) por un sistema monousuario (únicamente un usuario al mismo tiempo) más sencillo de gestionar.5 Véase AmigaOSbeOS o Mac OS como los pioneros6 de dicha modernización, cuando los Amiga fueron bautizados con el sobrenombre de Video Toasters7 por su capacidad para la Edición de vídeo en entornomultitarea round robin, con gestión de miles de colores e interfaces intuitivos para diseño en 3D.


Componentes de un sistema operativo

https://upload.wikimedia.org/wikipedia/commons/thumb/7/75/Componentes_sistemas_operativos.gif/220px-Componentes_sistemas_operativos.gif

Gestión de procesos


Un proceso es simplemente, un programa en ejecución que necesita recursos para realizar su tarea: tiempo de CPU, memoria, archivos y dispositivos de E/S. El SO es el responsable de lo siguiente:
·         Crear y destruir procesos
·         Parar y reanudar procesos
·         Ofrecer mecanismos para que los procesos puedan comunicarse y se sincronicen

La gestión de procesos podría ser similar al trabajo de oficina. Se puede tener una lista de tareas a realizar y a estas fijarles prioridades alta, media, baja por ejemplo. Debemos comenzar haciendo las tareas de prioridad alta primero y cuando se terminen seguir con las de prioridad media y después las de baja. Una vez realizada la tarea se tacha. Esto puede traer un problema que las tareas de baja prioridad pueden que nunca lleguen a ejecutarse. y permanezcan en la lista para siempre. Para solucionar esto, se puede asignar alta prioridad a las tareas más antiguas.