martes, 30 de noviembre de 2010

Tema 2: VIDEO BLOQUEOS/DEADLOCK


Este fue unos de los temas mas particulares que ocurren hoy en dia por lo cual le presento de que trata veamos:

Un bloqueo/Deadlock es un conjunto de procesos está en un abrazo mortal cuando todos los procesos en ese conjunto están esperando un evento que sólo puede ser causado por otro proceso en el conjunto. Los eventos a los cuales nos estamos refiriendo son concernientes con la asignación y liberación de recursos principalmente. Sin embargo, otro tipo de eventos pueden llevar a la existencia de abrazos mortales.


Un proceso puede estar identificado con tres estados diferentes: leyendo (ready), ejecutando (running) o bloqueado (blocked). En el estado de lectura, un proceso está parado, concediendo que otro proceso sea ejecutado; en el estado de ejecución, un proceso está utilizando algún recurso; y en el estado de bloqueo, el proceso está parado y no se ejecutará mientras algo lo restaure.

Una condición común no deseable es descripta como bloqueo, que es cuando varios procesos están en un estado de ejecución, y requieren intercambiar recursos entre sí para continuar. Ambos procesos están esperando por la liberación del recurso requerido, que nunca será realizada; como no hay ningún resultado, tomará un camino que llevará a un estado de bloqueo.

Se dice que dos procesos se encuentran en estado de bloqueo  cuando están esperando por condiciones que nunca se van a cumplir. Se podría hablar de deadlock como el estado permanente de bloqueo de un conjunto de procesos que están compitiendo por recursos del sistema.

En un entorno de multiprogramación varios procesos pueden competir un número finito de recursos, Los recursos de un sistema son distribuidos en varios tipos (espacio de memoria, ciclos de CPU, archivos, dispositivos de E/S). Estos se particionan en distintos tipos, cada uno de los cuales se llaman "Instancias".  Si un proceso requiere una instancia de un tipo de recurso, la asignación de cualquier instancia del tipo satisface el requerimiento. Un proceso solicita recursos, si los recursos no están disponibles en ese momento, el proceso pasa a estado de espera. Es posible que algunas veces, un proceso en espera no pueda cambiar de estado nunca, porque los recursos que ha solicitado estén ocupados por otro proceso que a su vez esté esperando de otros recursos. Cuando se produce una situación como esta se dice que ha ocurrido un Bloqueo.

Los Bloqueos También son llamados:

        Deadlock
        Interbloqueos
        Abrazo mortal
        Bloqueo mutuo
Video:

sábado, 27 de noviembre de 2010

Tema 14: Linux

LINUX es un sistema operativo, compatible Unix. Dos características muy peculiares lo diferencian del resto de los sistemas que podemos encontrar en el mercado, la primera, es que es libre, esto significa que no tenemos que pagar ningún tipo de licencia a ninguna casa desarrolladora de software por el uso del mismo, la segunda, es que el sistema viene acompañado del código fuente. El sistema lo forman el núcleo del sistema (kernel) más un gran número de programas / librerías que hacen posible su utilización.

LINUX se distribuye bajo la GNU Public License: Ingles, por lo tanto, el código fuente tiene que estar siempre accesible. El sistema ha sido diseñado y programado por multitud de programadores alrededor del mundo. El núcleo del sistema sigue en continuo desarrollo bajo la coordinación de Linux Torvalds, la persona de la que partió la idea de este proyecto, a principios de la década de los noventa.

Video

Tema 5: Seguridad

Los sistemas de una computadora manejan información que suele ser valiosa para sus propietarios por lo que la seguridad de dichos sistemas es un elemento importante en el diseño de los sistemas operativos.


El objetivo de esta investigación es hacer comprender al lector la problemática de seguridad existente en los sistemas de computación y, en concreto, en los sistemas operativos.
 
 
 
Video




viernes, 26 de noviembre de 2010

Tema 1: Historia y Evolución de los Sistemas Operativos


Los sistemas operativos han venido evolucionando a través de los años. Ya que los sistemas operativos se han apegado íntimamente a la arquitectura de las computadoras en las cuales se ejecutan.

La primera computadora digital real fue diseñada por el matemático ingles Charles Babbage (1792 - 1871). Aunque Babbage gasto la mayor parte de su vida y de su fortuna intentando construir su “ maquina analítica “ , nunca la hizo funcionar adecuadamente porque era un diseño puramente mecánico y la tecnología de su época no podía producir las ruedas, el engranaje, levas y otras partes mecánicas con la alta precisión que el necesitaba. Sin tener que decirlo, la maquina analítica no tuvo un sistema operativo.


Tema 10: Virtual Memory System VMS


La memoria virtual es una técnica para proporcionar la simulación de un espacio de memoria mucho mayor que la memoria física de una máquina. Esta "ilusión" permite que los programas se hagan sin tener en cuenta el tamaño exacto de la memoria física.
La ilusión de la memoria virtual está soportada por el mecanismo de traducción de memoria, junto con una gran cantidad de almacenamiento rápido en disco duro. Así en cualquier momento el espacio de direcciones virtual hace un seguimiento de tal forma que una pequeña parte de él, está en memoria real y el resto almacenado en el disco, y puede ser referenciado fácilmente.
Debido a que sólo la parte de memoria virtual que está almacenada en la memoria principal, es accesible a la CPU, según un programa va ejecutándose, la proximidad de referencias a memoria cambia, necesitando que algunas partes de la memoria virtual se traigan a la memoria principal desde el disco, mientras que otras ya ejecutadas, se pueden volver a depositar en el disco (archivos de paginación).
 
La memoria virtual ha llegado a ser un componente esencial de la mayoría de los S.O actuales. Y como en un instante dado, en la memoria sólo se tienen unos pocos fragmentos de un proceso dado, se pueden mantener más procesos en la memoria. Es más, se ahorra tiempo, porque los fragmentos que no se usan no se cargan ni se descargan de la memoria. Sin embargo, el S.O debe saber cómo gestionar este esquema.
La memoria virtual también simplifica la carga del programa para su ejecución llamado reubicación, este procedimiento permite que el mismo programa se ejecute en cualquier posición de la memoria física. 
 
Video:

Tema 21:Modelo OSI(system Interconnected)


                    DEFINICION  DEL MODELO OSI

El modelo de referencia OSI (Open Systems lnterconnection; Interconexión de sistemas abiertos) fue propuesto por la ISO (International Standars Organization; Organización Internacional de Estándares), como una norma o modelo "grandioso" para explicar cómo debe trabajar una red y enlazar sistemas abiertos. El Modelo OSI es un lineamiento funcional para tareas de comunicaciones y, por consiguiente, no especifica un estándar de comunicación para dichas tareas. Sin embargo, muchos estándares y protocolos  cumplen con los lineamientos del Modelo OSI.

OSI (open system interconnection) es el modelo principal para las comunicaciones de red. El modelo OSI es un conjunto de reglas que sirven como referencia para la comunicación de redes que utilizan hardware de distintos fabricantes.


        CARACTERISTICAS:


           El Modelo de referencia OSI cuenta con una de las características más representativas  que  es la división de comunicaciones complejas en tareas más pequeñas y separadas el cual se podría comparar con el proceso de construcción de un automóvil. 

NIVELES O CAPAS DEL MODELO OSI

El modelo OSI consta de siete capas, las cuales se encargan de establecer la conexión física y velar para que los datos enviados no se pierdan o dañen, hasta controlar que los datos sean correctamente interpretados por diferentes aplicaciones.
Para el usuario final el proceso de verificación realizado por estas capas es transparente, sobre todo por la rapidez con que se realizan.
Los principios que se aplicaron para su división en capas son:
1. Se debe crear una capa siempre que se necesite un nivel diferente de abstracción.
2.  Cada capa debe realizar una función bien definida.
3.  La función de cada capa se debe elegir pensando en la definición de protocolos estandarizados internacionalmente.
4.  Los límites de las capas deben elegirse a modo de minimizar el flujo de información a través de las interfaces.
5.  La cantidad de capas debe ser suficientes para no tener que agrupar funciones distintas en la misma capa y lo bastante pequeña para que la arquitectura no se vuelva inmanejable.
Estas son las siguientes:
1)  Capa Física.: Esta capa se ocupa de la transmisión de bits .en forma continua a lo largo de un canal de comunicación.
2) Capa de Enlace.: Realiza detección y posiblemente corrección de errores. La capa de enlace transmite los bits en grupos denominados tramas.
3) Capa de Red.: La capa de red se ocupa del control de la subred , pues es la que tiene el conocimiento de la topología de la red, y decide porque ruta va ha ser enviada la información para evitar la congestión. En esta capa maneja los bits agrupados por paquetes.
4) Capa de Transporte.: La capa de transporte es la encargada de fragmentar de forma adecuada los datos recibidos de la capa superior para transferirlos a la capa de red, asegurando la llegada y correcta recomposición de los fragmentos en su destino.
5) Capa de Sesión.: Es la primera capa accesible al usuario y en un sistema multiusuario.
6) Capa de Presentación.: Se encarga de la preservación del significado de la información recibida y su trabajo consiste en codificar los datos de la máquina transmisora a un flujo de bits adecuados para la transmisión y luego decodificarlos , para presentarlos en el formato del destinatario.
7) Capa de Aplicación.: La capa de aplicación contiene los programas del usuario , además que contiene los protocolos que se necesitan frecuentemente.

Video

jueves, 25 de noviembre de 2010

Tema 35: Tecnología e Investigación


La Tecnología puede definirse como el medio para transformar ideas en procesos o servicios, que permita además mejorar o desarrollar procesos. Sin embargo, y aunque su raíz etimológica la reduce a la ciencia de las artes industriales, no consiste únicamente en métodos, maquinas, procedimientos, instrumental, métodos de programación, materiales y equipos que pueden comprarse e intercambiarse, sino que es también un estado de espíritu, la expresión de un talento creador y la capacidad de sistematizar los conocimientos para su aprovechamiento por el conjunto de la sociedad.

Tema 34: Sociedad de la Informacion y el Conocimiento


Nos encontramos ante el nacimiento de la Sociedad de la Información y el conocimiento. La revolución científica tecnológica, según Castells, ha creado una nueva estructura social: la sociedad red, una nueva economía: la economía, información- global y una nueva cultura: de la virtualidad real.

Sociedad del conocimiento

Las sociedades de la información surgen de la implantación de las tecnologías de información y comunicación (TIC) sobre una comunidad. La eficacia de esta tecnología que actúa sobre elementos tan básicos de la persona como son el habla, el recuerdo o el estudio, modifica en muchos sentidos la forma en la que es posible desarrollar muchas actividades propias de la sociedad moderna.

Sin embargo, la información no es lo mismo que el conocimiento. La información se compone de hechos y sucesos, mientras que el conocimiento se define como la interpretación de dichos hechos dentro de un contexto, y posiblemente con alguna finalidad.

Tema 33: Gobierno electrónico



El Gobierno Electrónico se define como el uso de las Tecnologías de Información y Comunicaciones (TICs) para mejorar los servicios e información ofrecidos a los ciudadanos, aumentar la eficiencia y eficacia de la gestión pública e incrementar sustantivamente la transparencia del sector público y la participación ciudadana.

Tema 32: Redes Educativas


Las tecnologías de la información y la comunicación agrupan los elementos y las técnicas utilizadas en el tratamiento y la transmisión de las informaciones, principalmente de informática, internet, y telecomunicaciones.
Estas pueden mejorar la vida de todos los habitantes del planeta. Se disponen de herramientas para llegar a los Objetivos de Desarrollo del Milenio, de instrumentos que harán avanzar la causa de la libertad y la democracia, y de los medios necesarios para propagar los conocimientos y facilitar la comprensión mutua.

El desarrollo de Internet ha significado que la información esté ahora en muchos sitios. Antes la información estaba concentrada, la daban los padres, los maestros, los libros. La escuela y la universidad eran los ámbitos que concentraban el conocimiento. Hoy se han roto estas barreras y con Internet hay más acceso a la información. El principal problema, es la calidad de esta información.

Tema 31: Ergonomía Informática

La ergonomía, como ciencia, es la disciplina metódica y racional con miras a adaptar el trabajo al hombre y viceversa, mediante la interacción o comunicación intrínseca entre el hombre, la máquina, la tarea y el entorno, que configura el sistema productivo de toda empresa.


La palabra ergonomía se deriva de las palabras griegas "ergos", que significa trabajo, y "nomos", leyes; por lo que literalmente significa "leyes del trabajo", y podemos decir que es la actividad de carácter multidisciplinar que se encarga del estudio de la conducta y las actividades de las personas, con la finalidad de adecuar los productos, sistemas, puestos de trabajo y entornos a las características, limitaciones y necesidades de sus usuarios, buscando optimizar su eficacia, seguridad y confort.

Tema 29: Encriptación, Firma Digital, Documento Digital, Certificado Digital

La criptografia es el arte o ciencia de cifrar información mediante técnicas especiales y se emplea frecuentemente para permitir un intercambio de mensajes. A través de la criptografía se pueden proteger información como contraseñas de tarjetas de crédito, conversaciones privadas, etc.

Tanto la encriptación como las firmas digitales fomentan una mayor seguridad en la transmisión de la información sobre todo a través de Internet. Es por ello que las últimas versiones de los navegadores de Internet ya usan sistemas automáticos de encriptación de datos para que sea más difícil para los hackers robarlos.

La Encriptación como ciencia, se debería hablar de cristología, que a su vez engloba tanto las técnicas de cifrado, es decir, la criptografía propiamente dicha, como sus técnicas complementarias, entre las cuales se incluye el criptoanálisis, que estudia métodos empleados para romper textos cifrados con objeto de recuperar la información original en ausencia de las claves.

El cifrado es el proceso de convertir el texto plano en un galimatías ilegible, denominado texto cifrado o criptograma.

Tema 28: LEYES, CONTRATO Y E-JUSTICIA



La criptografia es el arte o ciencia de cifrar información mediante técnicas especiales y se emplea frecuentemente para permitir un intercambio de mensajes. A través de la criptografía se pueden proteger información como contraseñas de tarjetas de crédito, conversaciones privadas, etc.

Tanto la encriptación como las firmas digitales fomentan una mayor seguridad en la transmisión de la información sobre todo a través de Internet. Es por ello que las últimas versiones de los navegadores de Internet ya usan sistemas automáticos de encriptación de datos para que sea más difícil para los hackers robarlos.
La Encriptación como ciencia, se debería hablar de cristología, que a su vez engloba tanto las técnicas de cifrado, es decir, la criptografía propiamente dicha, como sus técnicas complementarias, entre las cuales se incluye el criptoanálisis, que estudia métodos empleados para romper textos cifrados con objeto de recuperar la información original en ausencia de las claves.

Tema: 26 Como mantenerse actualizado tecnologicamente


Con el poco tiempo que tenemos para mantenernos actualizados, ir paseando de un sitio a otro a veces se nos hace imposible y si bien seguramente estén suscriptos por mail a algún servicio de novedades, a veces estas llegan tarde o se nos “pierden” entre los mails diarios.
Escudriñar siempre en las paginas de innovaciones tecnologicas, para que puedas mantenerte actualizado.

Tema 25: Ensamblar una PC


Lo primero es tener las herramientas que vamos a necesitar mas básicas a mano , tales como:
  • Destornillador
  • Pasta térmica
  • Elemento para limpieza
  • Manual

Es aconsejable tener alcohol isopropílico para limpiar, porque es totalmente dieléctrico y no dañará ningún componente de hardware.
También es aconsejable descargar la electricidad estática de nuestro cuerpo, podemos "hacer tierra" tocando un componente metálico de la caja por ejemplo la chapa , algunos usan pulseras anti-estáticas , no estaría de más tener alguna por ahí.

Tema: 24 Entornos Virtuales


La educación actual afronta múltiples retos. Uno de ellos es dar respuesta a los profundos cambios sociales, económicos y culturales que se prevén para la "sociedad de la información".

Internet, la red de redes, ha generado un enorme interés en todos los ámbitos de nuestra sociedad. Su utilización con fines educativos es un campo abierto a la reflexión y a la investigación.

En esta investigación se exploran algunas de sus posibilidades, especialmente como recurso tecnológico de enseñanza-aprendizaje abierto, dinámico y flexible.

En este video se exponen algunas de sus posibilidades, especialmente
como recurso tecnológico de enseñanza-aprendizaje abierto, dinámico y flexible.

Tema: 23 Sistemas expertos


Los sistemas expertos son llamados así porque emulan el comportamiento de un experto en un dominio concreto y en ocasiones son usados por éstos. Con los sistemas expertos se busca una mejor calidad y rapidez en las respuestas dando así lugar a una mejora de la productividad del experto.
Es una aplicación informática capaz de solucionar un conjunto de problemas que exigen un gran conocimiento sobre un determinado tema. Un sistema experto es un conjunto de programas que, sobre una base de conocimientos, posee información de uno o más expertos en un área específica.Se puede entender como una rama de la inteligencia artificial. Estos sistemas imitan las actividades de un humano para resolver problemas de distinta índole (no necesariamente tiene que ser de inteligencia artificial). También se dice que un SE se basa en el conocimiento declarativo (hechos sobre objetos, situaciones) y el conocimiento de control (información sobre el seguimiento de una acción).
Para que un sistema experto sea herramienta efectiva, los usuarios deben interactuar de una forma fácil, reuniendo dos capacidades para poder cumplirlo:
  1. Explicar sus razonamientos o base del conocimiento: los sistemas expertos se deben realizar siguiendo ciertas reglas o pasos comprensibles de manera que se pueda generar la explicación para cada una de estas reglas, que a la vez se basan en hechos.
  1. Adquisición de nuevos conocimientos o integrador del sistema: son mecanismos de razonamiento que sirven para modificar los conocimientos anteriores. Sobre la base de lo anterior se puede decir que los sistemas expertos son el producto de investigaciones en el campo de la inteligencia artificial ya que ésta no intenta sustituir a los expertos humanos, sino que se desea ayudarlos a realizar con más rapidez y eficacia todas las tareas que realiza.
Debido a esto en la actualidad se están mezclando diferentes técnicas o aplicaciones aprovechando las ventajas que cada una de estas ofrece para poder tener empresas más seguras. Un ejemplo de estas técnicas sería los agentes que tienen la capacidad de negociar y navegar a través de recursos en línea; y es por eso que en la actualidad juega un papel preponderante en los sistemas expertos.

Tema 22: Lenguaje C


El lenguaje C, a diferencia de lenguajes como Basic y Pascal que son lenguajes de alto nivel, es un lenguaje de nivel medio ya que combina las propiedades de un lenguaje de alto nivel con la funcionalidad del lenguaje ensamblador.

Es esa misma característica la que le da a este lenguaje más potencia y dominio sobre los recursos del sistema. Entre una de las características más importantes de C está la portabilidad.

Aunque C fue diseñado para la aplicación de software del sistema, también es ampliamente utilizado para el desarrollo de portátiles de software de aplicación. Tambien fue diseñado para acceder al hardware de la computadora en forma directa es por eso que cuenta con instrucciones para la comunicacion con los puertos a muy bajo nivel.

Un núcleo del lenguaje simple, con funcionalidades añadidas importantes, como funciones matemáticas y de manejo de archivos, proporcionadas por bibliotecas.
Es un lenguaje muy flexible que permite programar con múltiples estilos. Uno de los más empleados es el estructurado "no llevado al extremo" (permitiendo ciertas licencias de ruptura). Un sistema de tipos que impide operaciones sin sentido.
Usa un lenguaje de preprocesado, el preprocesador de C, para tareas como definir macros e incluir múltiples archivos de código fuente.

miércoles, 24 de noviembre de 2010

Tema 20: Inteligencia Artificial


La Inteligencia Artificial es considerada como una de las ramas de la computación que contribuye a un mejor entendimiento del conocimiento humano.

Se denomina inteligencia artificial (IA) a la rama de las Ciencias de la Computación dedicada al desarrollo de agentes racionales no vivos.

Para explicar la definición anterior, entiéndase a un agente como cualquier cosa capaz de percibir su entorno (recibir entradas), procesar tales percepciones y actuar en su entorno (proporcionar salidas), y entiéndase a la racionalidad como la característica que posee una elección de ser correcta, más específicamente, de tender a maximizar un resultado esperado (este concepto de racionalidad es más general y por ello más adecuado que inteligencia para definir la naturaleza del objetivo de esta disciplina).

Por lo tanto, y de manera más específica la inteligencia artificial es la disciplina que se encarga de construir procesos que al ser ejecutados sobre una arquitectura física producen acciones o resultados que maximizan una medida de rendimiento determinada, basándose en la secuencia de entradas percibidas y en el conocimiento almacenado en tal arquitectura.

Existen distintos tipos de conocimiento y medios de representación del conocimiento. El cual puede ser cargado en el agente por su diseñador o puede ser aprendido por el mismo agente utilizando técnicas de aprendizaje.

También se distinguen varios tipos de procesos válidos para obtener resultados racionales, que determinan el tipo de agente inteligente. De más simples a más complejos, los cinco principales tipos de procesos son:

*Ejecución de una respuesta predeterminada por cada entrada (análogas a actos reflejos en seres vivos).

*Búsqueda del estado requerido en el conjunto de los estados producidos por las acciones posibles.

*Algoritmos genéticos (análogo al proceso de evolución de las cadenas de ADN).
Redes neuronales artificiales (análogo al funcionamiento físico del cerebro de animales y humanos).

*Razonamiento mediante una lógica formal (análogo al pensamiento abstracto humano).

Tema: 19 Areas de Aplicacion de la Informatica

La informatica juega un papel muy importante en el desarrollo de todas las areas y asi tambien tiene una gran diversidad de areas de aplicacion, por esto es parte de nuestra lavor como profesionales saber todas las areas en las que nuestra carrera puede ser aplicada, muchas veces algunos renglones o actividades se saturan de gente que tiene el mismo conocimiento sobre algo, habiendo miles de cosas que necesitan tambien ser conocidas para ser puestas en practica.

Areas en las cuales la informatica puede desarrolarse, aportar y ser aplicada:

-Algebra computacional
-Análisis numérico
-Gráficos por computadoras
-Química computacional
-Física computacional
-Quimica computacional
-Fisica computacional
-Bioinformatica
-Gestion de negocios
-Ciencias físicas e ingeniería
-Ciencias de la vida y médicas
-Ciencias sociales y del comportamiento
-Aplicaciones en educación.
-Arte y humanides

Tema: 18 OS/400

El sistema operativo OS/400 está dirigido directamente o miniordenadores AS/400, razón por la cual ambos tuvieron inicios en la misma fecha, este sistema operativo ofrece a sus usuarios y administradores la oportunidad de trabajador en equipo por sus recursos y gran capacidad de cómo sistema operativo.

OS/400 es un sistema operativo utilizado en la línea de miniordenadores AS/400 (actualmente servidores eServer Series) de IBM.

Tema: 17 Windows

Windows es un sistema operativo, el mismo fue creado en el año de 1981; a través de muchas investigaciones, tras la búsqueda de una solución al problema de las redes ya que los ordenadores no eran compatibles.

La primera versión de windows fue la 1.0 y a través de la primera versión surgieron muchas mas, siendo una de las mas populares, Windows NT para profesionales y una versión estructurada de NT, la XP para uso de hogares.

Este sistema operativo es uno de los mas completo, el mismo consta de programas de seguridad, de aplicación, es un sistema operativo multitareas. Con el sistema multitareas se puede ejecutar mas de una tarea sin la necesidad de esperar que se ejecute la primera.

Tema 16: AIX

Es un sistema operativo UNIX System V propietario de IBM. Inicialmente significaba "Advanced IBM Unix" pero probablemente el nombre no fue aprobado por el departamento legal y fue cambiado a "Advanced Interactive eXecutive"

AIX corre en los servidores IBM eServers pSeries, utilizando procesadores de la familia IBM POWER de 32 y 64bits.

Algunas de las características únicas de AIX incluyen el Object Data Manager (ODM, una base de datos de información del sistema). La integración de AIX del "Logical Volume Management" (administrador de volumen lógico) dentro del núcleo está siendo incluido gradualmente a varios sistemas operativos libres similares a UNIX.

AL ser un sistema operativo dirigido a los grandes Mainframes, tiene algunas de sus caracteristicas importantes como son:
-Soporte de hasta 64 procesadores.
-2 TB en memoria principal.
-JFS2: 16 TB de sistema de archivos máximo soportado.
-JFS2: 16 TB de tamaño de archivos máximo.
-Soporte para PowerPC.

Tema 15: Macintosh

Macintosh (abreviado Mac) es el nombre con el que actualmente nos referimos a cualquier computadora personal diseñada, desarrollada, construida y comercializada por Apple Inc.

Los primeros Macintosh estaban basados en los microprocesadores de la familia Motorola MC68000, de tecnología CISC. En marzo de 1994, Apple introdujo en la gama Macintosh los chips PowerPC del Consorcio Apple/IBM/Motorola, que suponían el cambio a la tecnología RISC. En el 2006 Apple inició la transición desde la línea de PowerPC line a los procesadores Intel con arquitectura x86. Los Macs actuales usan la serie de microprocesadores Intel Core Duo, Intel Core 2 Duo e Intel Xeon 5100. Todos los modelos de Mac actuales vienen preinstalados con una versión nativa de la última versión de Mac OS X, que actualmente está en su versión Mac OS X v10.5.6 y es usualmente conocida por su nombre código "Leopard".

Su sistema de producción está basado en un modelo de integración vertical en los que Apple proporciona todos los aspectos de su hardware y crea su propio sistema operativo que viene preinstalado en todas las Macs. Esto contrasta con la realidad actual en las que las PCS vienen preinstaladas con Microsoft Windows, en donde un vendedor proporciona el sistema operativo y múltiples vendedores crean el hardware. En ambos casos, el hardware permite el funcionamiento de otros sistemas operativos: las Mac modernas, así como las PC son capaces de soportar sistemas operativos como Linux, FreeBSD y Windows, éste último gracias al software de Apple Boot Camp o a otros softwares de virtualización como por ejemplo Parallels Desktop o VMWare Fusion.

Tema 15: Macintosh

Macintosh (abreviado Mac) es el nombre con el que actualmente nos referimos a cualquier computadora personal diseñada, desarrollada, construida y comercializada por Apple Inc.

Los primeros Macintosh estaban basados en los microprocesadores de la familia Motorola MC68000, de tecnología CISC. En marzo de 1994, Apple introdujo en la gama Macintosh los chips PowerPC del Consorcio Apple/IBM/Motorola, que suponían el cambio a la tecnología RISC. En el 2006 Apple inició la transición desde la línea de PowerPC line a los procesadores Intel con arquitectura x86. Los Macs actuales usan la serie de microprocesadores Intel Core Duo, Intel Core 2 Duo e Intel Xeon 5100. Todos los modelos de Mac actuales vienen preinstalados con una versión nativa de la última versión de Mac OS X, que actualmente está en su versión Mac OS X v10.5.6 y es usualmente conocida por su nombre código "Leopard".

Su sistema de producción está basado en un modelo de integración vertical en los que Apple proporciona todos los aspectos de su hardware y crea su propio sistema operativo que viene preinstalado en todas las Macs. Esto contrasta con la realidad actual en las que las PCS vienen preinstaladas con Microsoft Windows, en donde un vendedor proporciona el sistema operativo y múltiples vendedores crean el hardware. En ambos casos, el hardware permite el funcionamiento de otros sistemas operativos: las Mac modernas, así como las PC son capaces de soportar sistemas operativos como Linux, FreeBSD y Windows, éste último gracias al software de Apple Boot Camp o a otros softwares de virtualización como por ejemplo Parallels Desktop o VMWare Fusion.

Tema 14: Linux

LINUX es un sistema operativo, compatible Unix. Dos características muy peculiares lo diferencian del resto de los sistemas que podemos encontrar en el mercado, la primera, es que es libre, esto significa que no tenemos que pagar ningún tipo de licencia a ninguna casa desarrolladora de software por el uso del mismo, la segunda, es que el sistema viene acompañado del código fuente. El sistema lo forman el núcleo del sistema (kernel) más un gran número de programas / librerías que hacen posible su utilización.
LINUX se distribuye bajo la GNU Public License: Ingles, por lo tanto, el código fuente tiene que estar siempre accesible.
El sistema ha sido diseñado y programado por multitud de programadores alrededor del mundo. El núcleo del sistema sigue en continuo desarrollo bajo la coordinación de Linux Torvalds, la persona de la que partió la idea de este proyecto, a principios de la década de los noventa.
Día a día, más y más programas / aplicaciones están disponibles para este sistema, y la calidad de los mismos aumenta de versión a versión. La gran mayoría de los mismos vienen acompañados del código fuente y se distribuyen gratuitamente bajo los términos de licencia de la GNU Public License.

Tema 12: VAX – Virtual Address Extension

Máquina CISC sucesora de la PDP-11, producida por Digital Equipment Corporation. Su nombre original era VAX-11 (Virtual Address Extended PDP-11). Lanzada el 25 de octubre de 1977, fue la primera máquina comercial de arquitectura de 32 bits, lo que la convierte en un hito destacable en la historia de la computación. La primera VAX-11/780 fue instalada en Carnegie Mellon University.
Su sistema operativo, VMS (luego llamado OpenVMS), fue concebido junto con la máquina. Presentaba características muy novedosas para su tiempo, en particular un revolucionario sistema de clustering.
El VAX es uno de los más exitosos de la familia de ordenadores de Digital Equipment Corporation. El nombre VAX, que significa "Extensión de dirección virtual" se refiere al gran espacio de direcciones virtuales, que estaba destinado a ser una extensión a la arquitectura de la PDP-11. En los primeros meses del proyecto, la máquina fue llamado PDP-11 / 780.

Es una máquina CISC (Complex Instruction Set Computing, modelo de arquitectura de computadores) sucesora de la PDP-11(Computador fabricado por la empresa Digital Equipment Corp. en las décadas de 1970 y 1980. Fue la primera minicomputadora en interconectar todos los elementos del sistema — procesador, memoria y periférico — a un único bus de comunicación, bidireccional, asíncrono). Su nombre original era VAX-11 (Virtual Address Extended PDP-11). Lanzada el 25 de octubre de 1977, fue la primera máquina comercial de arquitectura de 32 bits, lo que la convierte en un hito destacable en la historia de la computación. La primera VAX-11/780 fue instalada en Carnegie Mellon University, se introdujo a principios de 1978.

Tema 11: Virtual Machines

Es la abstracción de los recursos de una computadora, crea una capa de abstracción entre el hardware de la máquina física (host) y el sistema operativo de la máquina virtual (virtual machine, guest).
Se consigue virtualización cuando se emula completamente el hardware en un computador y/o direccionando los recursos del computador físico a la maquina virtual.
Es un medio para crear una versión virtual de un dispositivo o recurso, como un servidor, un dispositivo de almacenamiento, una red o incluso un sistema operativo, donde se divide el recurso en uno o más entornos de ejecución.

La Maquina Virtual Es un software que emula a una computadora y puede ejecutar programas como si fuese una computadora real. Este software en un principio fue definido como "un duplicado eficiente y aislado de una máquina física".
Tipos de Maquinas Virtuales
Las máquinas virtuales se pueden clasificar en dos grandes categorías según su funcionalidad y su grado de equivalencia a una verdadera máquina.
  • Máquinas virtuales de sistema (System Virtual Machine): permiten a la máquina física subyacente multiplexarse entre varias máquinas virtuales, cada una ejecutando su propio sistema operativo.
  • Máquinas virtuales de proceso (Process Virtual Machine): se ejecutan como un proceso normal dentro de un sistema operativo y soporta un solo proceso. La máquina se inicia automáticamente cuando se lanza el proceso que se desea ejecutar y se para cuando éste finaliza. Su objetivo es el de proporcionar un entorno de ejecución independiente de la plataforma de hardware y del sistema operativo.

Tema 9: MVS – Múltiple Virtual Storage

El MVS (almacenaje virtual múltiple) es el sistema operativo de la IBM de quien está instalado en la mayoría su chasis y las computadoras de servidor grandes. El MVS se ha hecho para ser el sistema operativo que guarda ir del mundo. Aunque el MVS tiende para ser asociado a un sistema de información monolítico, central-controlado, la IBM tiene en los años recientes colocados de nuevo le como "servidor grande" en un ambiente distribuido network-oriented, usando un modelo del uso 3-tier.
La versión más última de MVS, OS/390. Puesto que el MVS representa una cierta época y cultura en la historia de computar y puesto que muchos más viejos sistemas del MVS todavía funcionan, el término "MVS" continuará probablemente siendo utilizado por una cierta hora. Puesto que OS/390 también viene con el usuario de UNIX y los interfaces de programación construidos adentro, puede ser utilizado como un sistema del MVS y sistema de UNIX en el mismo tiempo.

Los sistemas del MVS más viejos funcionan usando COBOL y, para los programas de transacción, CICS. Más viejos programas de uso escritos en PL/I y el FORTRAN todavía están funcionando. Más viejos usos utilizan el método de acceso del método de acceso del almacenaje virtual para la gerencia de archivo y el método de acceso virtual de telecomunicaciones para la telecomunicación con los usuarios.

Tema 8: CP/M-Control Process For Micro Processors

CP / M (Control Program para los microordenadores) es un sistema operativo creado originalmente para Intel 8080/85 microcomputadoras basadas por Gary Kildall de Digital Research, Inc. Inicialmente limitada a tareas individuales en los procesadores de 8-bits y no más de 64 kilobytes de memoria, versiones posteriores de CP / M añadido variaciones multi-usuario, y se migraron a los procesadores de 16-bit.CP / M (Control Program para los microordenadores) es un sistema operativo creado originalmente para Intel 8080/85 microcomputadoras basadas por Gary Kildall de Digital Research, Inc. Inicialmente limitada a tareas individuales en los procesadores de 8-bits y no más de 64 kilobytes de memoria, versiones posteriores de CP / M añadido variaciones multi-usuario, y se migraron a los procesadores de 16-bit.
CP / M estaba parado originalmente para "Programa de Control / Monitor". Sin embargo, durante la conversión de CP / M para un producto comercial, documentos de registro de marcas presentada en noviembre de 1977 dio el nombre del producto como "Programa de Control para microcomputadoras". El CAR / nombre de M muestra un esquema de nombres predominantes de la época, como en PL Kildall / idioma M, y el primer equipo de PL / P (Lenguaje de Programación para la emergencia), tanto lo que sugiere PL IBM / I, y de IBM sistema operativo CP / CMS, Kildall que había utilizado cuando se trabaja en la Escuela Naval de Postgrado.

Tema 7: Procesos

Un proceso no es mas que un programa en ejecución y dicho proceso se compone de hilos y Multihilos y cada hilo puede tener un programa en ejecución diferente.
Un proceso es un programa en ejecución, los procesos son gestionados por el sistema operativo y están formados por:
  • Las instrucciones de un programa destinadas a ser ejecutadas por el microprocesador.
  • Su estado de ejecución en un momento dado, esto es, los valores de los registros de la CPU para dicho programa.
  • Su memoria de trabajo, es decir, la memoria que ha reservado y sus contenidos.
  • Otra información que permite al sistema operativo su plantificación.

Tema 6: Memoria

La memoria es uno de los principales recursos de la computadora, la cual debe de administrarse con mucho cuidado. Aunque actualmente la mayoría de los sistemas de cómputo cuentan con una alta capacidad de memoria, de igual manera las aplicaciones actuales tienen también altos requerimientos de memoria, lo que sigue generando escasez de memoria en los sistemas multitarea y/o multiusuario.

La parte del sistema operativo que administra la memoria se llama administrador de memoria y su labor consiste en llevar un registro de las partes de memoria que se estén utilizando y aquellas que no, con el fin de asignar espacio en memoria a los procesos cuando éstos la necesiten y liberándola cuando terminen, así como administrar el intercambio entre la memoria principal y el disco en los casos en los que la memoria principal no le pueda dar capacidad a todos los procesos que tienen necesidad de ella.

Los sistemas de administración de memoria se pueden clasificar en dos tipos: los que desplazan los procesos de la memoria principal al disco y viceversa durante la ejecución y los que no.

El propósito principal de una computadora es el de ejecutar programas, estos programas, junto con la información que accesan deben de estar en la memoria principal (al menos parcialmente) durante la ejecución.

Para optimizar el uso del CPU y de la memoria, el sistema operativo debe de tener varios procesos a la vez en la memoria principal, para lo cual dispone de varias opciones de administración tanto del procesador como de la memoria. La selección de uno de ellos depende principalmente del diseño del hardware para el sistema. A continuación se observarán los puntos correspondientes a la administración de la memoria.

Tema 4: Sistemas de Archivo

Definición de Archivo

En informática, un archivo es un grupo de datos estructurados que son almacenados en algún medio y pueden ser usados por las aplicaciones. La forma en que una computadora organiza, da nombre, almacena y manipula los archivos se denomina sistema de archivos y suele depender del sistema operativo y del medio de almacenamiento (disco duro, disco óptico, etc).


Características generales de los archivos

·Nombre y extensión: Cada archivo es individual y es identificable por un nombre y una extensión opcional que suele identificar su formato. El formato suele servir para identificar el contenido del archivo. Los nombres de archivos originalmente tenían un límite de ocho caracteres más tres caracteres de extensión, actualmente permiten muchos más caracteres dependiendo del sistema de archivos.

· Datos sobre el archivo: Además para cada fichero, según el sistema de archivos que se utilice, se guarda la fecha de creación, modificación y de último acceso. También poseen propiedades como oculto, de sistema, de solo lectura, etc.

· Tamaño: Los archivos tienen también un tamaño que se mide en bytes, kilobytes, megabytes, gigabytes y depende de la cantidad de caracteres que contienen.

· Ubicación: Todo archivo pertenece a un directorio o subdirectorio. La ruta de acceso a un archivo suele comenzar con la unidad lógica que lo contiene y los sucesivos subdirectorios hasta llegar al directorio contenedor, por ejemplo: "C:Archivos de programaMicrosoftarchivo.txt".
Los archivos pueden separarse en dos grandes grupos, ejecutables y no ejecutables.