INSTITUTO DE FORMACIÓN DOCENTE “JOSÉ MANUEL ESTRADA” Tecnología de la Información y la Comunicación I y II
Introducción a la Informática PRIMERA PARTE: La Informática Informática es una palabra de origen francés formada por la contracción de los vocablos: INFORmación y autoMATICA La Real Academia Española define: La Informática como el conjunto de conocimientos científicos y técnicas que hacen posible el tratamiento automático y racional de la información por medio de computadoras. De esta definición se desprende que es una Ciencia y una Ingeniería puesto que necesita desarrollar estudios teóricos y experimentales. Tratamiento automático: Se refiere a que son las propias máquinas las que realizan las tareas de captura, proceso y presentación de la información. Tratamiento racional: Se refiere a que todo el proceso está regulado a través de una secuencia de instrucciones (programa) que siguen el razonamiento humano. El objetivo marcado es el “tratamiento automático” de la información y el medio utilizado “la computadora”. Por lo tanto, es imprescindible conocer: - Todas las características técnicas de las computadoras y sus componentes asociados (periféricos). - Tipos de información y datos que se manejarán (sistemas de representación, archivos y bases de datos). - Los procesos y métodos aplicados a la información o datos (programas). - Los sistemas de comunicación que permitirán tratar la información a distancia y compartirla de forma fiable. Conocer con detalle estos aspectos y la relación que existe entre ellos, permitirá entender cómo se realiza el tratamiento automático de la información, utilizando computadoras. En la definición se hace mención a la utilización de “computadoras”. Pero, el término es más amplio y debe entenderse como “sistema informático”, siendo éste un conjunto de recursos destinados al tratamiento de la información. La Informática como disciplina Se han elaborado una serie de recomendaciones sobre la Currícula de Computación1 y en este documento especifican la siguiente definición (se aclara que en este contexto, las palabras Computación e Informática se utilizan como sinónimos): La Computación como disciplina comprende el estudio de procesos algorítmicos que describen y transforman a la información; estudian su teoría, análisis, diseño, eficiencia, implementación y aplicación. La pregunta fundamental subyacente en toda la computación es: ¿qué puede ser automatizado (en forma eficiente)? Esta disciplina nació en la primera parte de la década de 1940 con la conjunción de la teoría de los algoritmos, lógica matemática y la invención de la computadora electrónica con programa almacenado. La computación extiende sus raíces profundamente en la matemática y en la ingeniería. La matemática aporta análisis al área, mientras que la ingeniería aporta diseño. La disciplina posee su propia teoría, su método experimental y su ingeniería. Dentro de la disciplina se identificas 9 subáreas de conocimiento: • Estructuras de Datos y Algoritmos • Lenguajes de Programación • Arquitectura • Computación Numérica y Simbólica • Sistemas Operativos • Metodología e Ingeniería de Software • Bases de Datos y Búsqueda de Información • Inteligencia Artificial y Robótica • Comunicación Humano-Computadora Cada una posee una temática subyacente, una componente teórica, abstracciones significativas y temas sustanciales de implementación y diseño. La teoría trata con el desarrollo matemático subyacente e incluye teoría de apoyo tal como teoría de grafos, combinatoria o lenguajes formales. 1
http://www.acm.org/education/curricula-recommendations Docente a Cargo: Arq. Susana M. TURRACA Prof. para el 3º ciclo del EGB y el Nivel Polimodal en Tecnología
1
INSTITUTO DE FORMACIÓN DOCENTE “JOSÉ MANUEL ESTRADA” Tecnología de la Información y la Comunicación I y II La abstracción (o modelamiento) trata con modelos de potenciales implementaciones; los modelos suprimen detalles mientras que retienen características esenciales, y proveen medios por los cuales se puede predecir comportamiento futuro. El diseño trata con el proceso de especificar un problema, derivar requerimientos y especificaciones, iterar y probar (testear) prototipos, e implementar un sistema. El diseño incluye el método experimental, el cual en computación viene en distintos estilos: medición de programas y sistemas, validación de hipótesis y realización de prototipos para extender las abstracciones a la práctica. La Informática como Ciencia Por sus características, la Informática puede concebirse como ciencia teórica y como ciencia de carácter empírico sobre los fenómenos relacionados con la información y la computación. Como ciencia teórica se centra en la teoría de la computabilidad y como ciencia empírica, sus hipótesis pueden ser refutadas por la realidad. La estructura disciplinar de la Informática está formada por varias teorías y disciplinas presupuestas (Teoría General de los Sistemas, Cibernética, Teoría de la Información y la Comunicación, Teoría de Lenguajes Formales y Autómatas, teorías matemáticas y lógicas) y su teoría central es la Teoría de la Computabilidad. Esta estructura conforma, en gran parte, su corpus teórico. La teoría de la computabilidad, está íntimamente relacionada con las matemáticas y su concepto clave es el concepto de algoritmo. Explora la naturaleza de los problemas que son accesibles a la mente humana y los clasifica en clases: los demostrablemente irresolubles y los resolubles que admiten un algoritmo para su solución. La Informática como Tecnología Un determinado cuerpo de conocimientos es una tecnología si y sólo si: • Es compatible con la ciencia coetánea2 y es controlable por el método científico. • Se emplea para controlar, transformar o crear cosas o procesos, naturales o sociales. Es decir, la tecnología es una actividad social centrada en el saber hacer que, mediante el uso racional, organizado, planificado y creativo de los recursos materiales y la información propios de un grupo humano, en una cierta época, brinda respuestas a las demandas sociales en lo que respecta a la producción, distribución y uso de bienes, procesos y servicios. La Informática, como disciplina tecnológica, abarca tanto la actividad (investigación, desarrollo, ejecución, etc.) como el producto resultante (conocimientos, bienes, servicios, etc.) que son consecuencia de respuestas a inquietudes y necesidades de la sociedad. Es así como, analiza determinados problemas relacionados generalmente con la adquisición, almacenamiento, procesamiento y transferencia de datos-informaciónconocimientos que plantea la sociedad y trata de buscar su solución relacionando la técnica (conocimientos, herramientas, capacidad inventiva) con la ciencia y con la estructura económica y socio-cultural del medio. Esta concepción de la Informática como disciplina tecnológica está vinculada a la caracterización de la Informática como disciplina empírica y como disciplina ingenieril, esto abarca a los Sistemas de Información y a la Ingeniería del Software, en donde se abordan el diseño y desarrollo de sistemas software para satisfacer necesidades del mundo real. En este contexto, adquieren gran relevancia lo objetivos y misiones organizacionales y la aplicación de tecnologías informáticas para alcanzar los objetivos. En síntesis, la Informática como disciplina científica y tecnológica estudia los fenómenos relacionados con los objetos de su dominio (información, sistemas) y cuenta, por un lado, con un conjunto de métodos o procedimientos (modelización, abstracción) que permiten captar y estudiar los fenómenos relacionados al tratamiento sistemático de la información, y por otro, con teorías (Teoría de la Información y la Comunicación, Teoría de las organizaciones) que conceptualizan los objetos de su dominio. Como otras disciplinas, tiene aplicaciones prácticas o tecnológicas que están sustentadas por las teorías específicas y, asimismo, hacen uso de sus métodos y procedimientos. Las herramientas tecnológicas surgen como producto de la aplicación del conocimiento científico de la disciplina en la construcción de artefactos que se incorporan al mundo real o virtual en forma de productos o servicios (Barchini et al., 2004). Puesto en contexto de que trata la Informática, sus teorías y métodos, se pasará a detallar cada uno de los conceptos fundamentales: Información: De una manera informal, se puede considerar la información como un conjunto de datos ordenados que nos aportan conocimiento sobre las cosas. Para dar una definición más formal se tendrán en cuenta dos nuevos conceptos: carácter y dato. 2
Que coincide en edad, plazo o tiempo con otro. Docente a Cargo: Arq. Susana M. TURRACA Prof. para el 3º ciclo del EGB y el Nivel Polimodal en Tecnología
2
INSTITUTO DE FORMACIÓN DOCENTE “JOSÉ MANUEL ESTRADA” Tecnología de la Información y la Comunicación I y II Carácter: es cualquier símbolo numérico, alfabético o especial que se emplea en la escritura y en el cálculo: - Numéricos: 0,1,2,.....9 - Alfabéticos: a, b, c ...., z, A, B, C... , Z. - Especiales: *, /, +, #,.. - De control: retorno de carro, Fin de fichero (EOF)... Dato: es cualquier conjunto de caracteres (puede ser un único carácter). Existen tres tipos básicos de datos: - Numéricos: Formados exclusivamente por dígitos. Ej. 213, 21.419. - Alfabéticos: formados exclusivamente por letras del alfabeto. Ej. Juan, x, Costo. - Alfanuméricos: Formados por caracteres numéricos, alfabéticos y especiales. Ej. Valor5, PA4, Junín 455. Considerando lo anterior, se puede decir entonces que: Información: es un conjunto de datos (numéricos, alfabéticos y alfanuméricos) ordenados con los que se representan convencionalmente hechos, objetos e ideas. En esta definición debemos resaltar el término relativo al orden. En la información, es importante el orden de los datos, ya que un conjunto de datos empleados sin ningún orden nos daría una información diferente de la deseada o incluso podría no aportar ninguna información. Ej. Estos son conceptos básicos de Informática (Correcto). Básicos son conceptos de estos Informática (Incorrecto). Pasos en el tratamiento de la información Tratamiento de información quiere decir operar o procesar un conjunto de datos iniciales o datos de entrada, y, como resultado de este procesamiento, obtener un conjunto de datos finales o de salida. El procesamiento de datos está constituido por tres actividades básicas: Captura de datos de entrada: Los datos deben ser registrados antes de procesarse. Los datos pueden ser captados directamente por la computadora (por ejemplo, detectando electrónicamente un sonido, una temperatura, un código de barras) o pueden ser dados en forma de letras o números (caracteres). Manipulación de los datos: Sobre los datos de entrada podemos realizar las siguientes operaciones: - Agrupación: consiste en organizar o clasificar elementos similares por grupos o clases. - Cálculo: consiste en la manipulación aritmética de los datos. - Clasificación: consiste en el ordenamiento de los datos agrupados según una secuencia lógica (de mayor a menor, del más antiguo a más reciente). Manejo de los resultados de salida: Una vez que han sido manipulados los datos de entrada, sobre ellos se pueden realizar las siguientes operaciones: - Almacenamiento y recuperación: Con el proceso de almacenamiento nos aseguramos de poder conservar los datos para el futuro. Para realizar la consulta utilizaremos el proceso de recuperación. - Comunicación y reproducción: El proceso de comunicación de datos consiste en la transferencia de los mismos de un lugar a otro, donde serán utilizados o se procesarán de nuevo. Este proceso continúa hasta que la información llega al usuario. Cuando la recibe puede necesitar copiar o duplicar la información (por ejemplo un listado de las ventas del último mes) y esta tarea de reproducción la realiza una máquina. Operaciones para el tratamiento de la Información En el tratamiento de la información aparecen implicadas algunas o todas las operaciones elementales que exponemos a continuación: - Lectura: consiste en adquirir la información que después utilizará el resto de las operaciones elementales. - Almacenamiento: consiste en almacenar la información durante el tiempo que sea necesario para hacer uso de ella cuando se precise. - Clasificación: Permite ordenar la información guardada usando la operación anterior de almacenamiento. De este modo podemos acceder cuando sea necesario a parte o a la totalidad de la información. - Cálculo aritmético y lógico: Este tipo de operación elemental nos permite procesar la información realizando sobre ellas operaciones aritméticas y lógicas. - Copia: Consiste en poder transcribir información a un soporte dado de forma automática. - Escritura: Consiste en mostrar la información de una manera clara y ordenada sobre un soporte dado.
Docente a Cargo: Arq. Susana M. TURRACA Prof. para el 3º ciclo del EGB y el Nivel Polimodal en Tecnología
3
INSTITUTO DE FORMACIÓN DOCENTE “JOSÉ MANUEL ESTRADA” Tecnología de la Información y la Comunicación I y II La diferencia con respecto a la copia radica en que, en el caso de tratarse de un tratamiento automático de la información, la información es mostrada de manera que sea inteligible para las personas mientras que en la copia dicha información se encuentra en el lenguaje que la máquina entiende. Por qué se automatiza el tratamiento de la información? Las razones que han llevado a la automatización del tratamiento de la información son fundamentalmente cuatro: - La realización de funciones que el hombre por sí solo no puede llevar a cabo: comunicaciones a larga distancia, etc. - La ejecución de funciones que, aunque el hombre pueda llevarlas a cabo por sí mismo, su ejecución tardaría mucho tiempo. Por ejemplo, los cálculos complejos para el seguimiento y control de un proyectil dirigido o de una nave espacial. - La obtención de seguridad en algunas tareas, como las que implican la repetición de una serie de pasos, en las que el hombre es más propenso a cometer errores. Las computadoras, una vez que han aprendido como realizar las tareas correctamente repiten el proceso una y otra vez sin cometer errores. - La sustitución del hombre en tareas monótonas. Que no implican el desarrollo de su actividad intelectual, con lo que, al automatizarlas, el hombre puede dedicar su esfuerzo a funciones más decisivas e importantes. Por qué la necesidad de información? Hemos definido, en forma genérica, el término Información, como referencia al conjunto de símbolos, con los que se representan convencionalmente hechos, objetos e ideas. También puede decirse, con más precisión, que Información se refiere al conocimiento derivado del análisis o tratamiento de los datos. Este conocimiento o información se utiliza para tomar decisiones con vistas a un accionar concreto. Esta es la importancia que tiene la Informática en la actualidad, permite obtener información confiable, precisa y oportuna que permitirá tomar mejores decisiones. Esto permite a las empresas y organizaciones el logro eficiente de sus objetivos. Codificación de la información En Informática es frecuente codificar la información. Codificación es una transformación que representa los elementos de un conjunto mediante los de otro, de forma tal que a cada elemento del primer conjunto le corresponda un elemento distinto del segundo. Ejemplos de códigos son: el número de matrícula de un auto, el número de carnet de identidad, el código de enfermedad definido por la Organización Mundial de la Salud. Con los códigos se puede comprimir y estructurar la información. La identificación de un auto por su matrícula es más corta que hacerlo por el nombre del propietario, su marca, color y fecha de compra. Unidades de Medida de la Información En el interior de las computadoras, la información se almacena y se transfiere de un sitio a otro según un código que utiliza sólo dos valores (un código binario) representado por 0 y 1. En la entrada y salida de la computadora se efectúan automáticamente los cambios de código oportunos para que en su exterior la información sea directamente comprendida por los usuarios. En la figura siguiente se ilustra como el texto, los números y los símbolos (caracteres especiales) se representan en el interior de la computadora como unos y ceros y se muestran fuera de la computadora en el formato entendible por las personas.
Docente a Cargo: Arq. Susana M. TURRACA Prof. para el 3º ciclo del EGB y el Nivel Polimodal en Tecnología
4
INSTITUTO DE FORMACIÓN DOCENTE “JOSÉ MANUEL ESTRADA” Tecnología de la Información y la Comunicación I y II Concepto de BIT y BYTE La unidad más elemental de información es un valor binario conocido como BIT, es una posición o variable que toma el valor 0 ó 1. Representa la información correspondiente a la ocurrencia de un suceso de entre dos posibilidades distintas: prendido o apagado, abierto o cerrado. Se dijo que la información se representa por medio de caracteres y que internamente se codifica en un alfabeto binario, es decir, en bits. Por tanto a cada carácter le corresponde un cierto número de bits. Un byte es el número de bits necesarios para almacenar un carácter. Este número depende del código utilizado por la computadora, siendo generalmente 8, por lo que habitualmente byte se utiliza como sinónimo de 8 bits. La capacidad de almacenamiento de una computadora o de un soporte de información, (tal como disco, disquete o cinta magnética) se mide en bytes. Como es una unidad relativamente pequeña, es usual utilizar múltiplos, que se muestran en la tabla 1. Las denominaciones de las unidades derivan del Sistema Internacional de Unidades que se usa en la mayoría de los países y es la forma actual del sistema métrico decimal.
Cabe destacar que la razón por la que se utiliza el factor multiplicador 1024 en lugar de 1000 es por ser la potencia de 2 más próxima a 1000, cuestión importante desde el punto de vista electrónico. Es notorio que, a medida que la informática avanza, la capacidad de almacenamiento lo hace en la misma medida, tanto que deben desarrollarse nuevas unidades de medidas, como es el caso de las dos últimas de la tabla 1 que no tienen actualmente ejemplos de aplicación prácticos pero, de acuerdo al informe de una empresa mundial de comunicaciones, que trata de monitorizar y predecir el impacto de las aplicaciones visuales en red, el volumen total del tráfico IP prácticamente se duplicará cada dos años hasta el 2012 hasta llegar a medio Zettabyte. La computadora Computador, computadora u ordenador, se define como una máquina capaz de aceptar unos datos de entrada, efectuar con ellos operaciones lógicas y aritméticas, y proporcionar la información resultante a través de un medio de salida; todo ello sin intervención de un operador humano y bajo el control de un programa de instrucciones previamente almacenado en el propio computador. Se entiende por operaciones lógicas funciones tales como comparar ó seleccionar. La diferencia fundamental de la computadora respecto a otras máquinas que realizan un tratamiento automático de la información (como las calculadoras) se encuentra en la propia definición: el proceso lo controla el programa y no un operador humano. Docente a Cargo: Arq. Susana M. TURRACA Prof. para el 3º ciclo del EGB y el Nivel Polimodal en Tecnología
5
INSTITUTO DE FORMACIÓN DOCENTE “JOSÉ MANUEL ESTRADA” Tecnología de la Información y la Comunicación I y II Existen otras diferencias adicionales: - Puede realizar las seis operaciones elementales de tratamiento de la información. - Gran velocidad de tratamiento de la información. - Gran potencia de cálculo aritmético y lógico. - Puede guardar los programas y datos necesarios para la resolución de cualquier problema. - Puede comunicarse con las personas y con otras máquinas para recibir y emitir datos. Una computadora puede considerarse como un sistema, cuyas salidas o resultados son función (dependen) de sus entradas, constituidas por datos e instrucciones. Programas e instrucciones Una instrucción es un conjunto de símbolos que representa una orden de operación o tratamiento para la computadora. En general, estas operaciones se realizan con datos. Un programa es un conjunto ordenado de instrucciones que se dan a la computadora indicándole las operaciones o tareas que se desea que realice. Las instrucciones se forman con elementos o símbolos tomados de un determinado repertorio, el “juego de instrucciones” de una CPU particular, y se construyen siguiendo unas reglas precisas. Los programas son formulaciones concretas de algoritmos abstractos basados en ciertas representaciones y en estructuras de datos. Todo lo relativo a los símbolos y reglas para escribir programas se denomina lenguaje de programación. Elementos básicos en la Informática En general, en un sistema informático, se encuentran tres partes fundamentales que interactúan entre sí: - El elemento físico o hardware: Es el conjunto de elementos materiales: computadoras, impresoras, periféricos, redes de comunicación, etc. - El elemento lógico o software: Se refiere a los programas, datos o conjunto de elementos lógicos: sistema operativo, lenguajes de programación, programas de aplicación específicos, archivos de datos, páginas web, etc. - El elemento humano: personal informático que realizará los programas y los usuarios que realizarán los procedimientos y usarán la información del sistema. Personal Informático El elemento humano es el más importante de los tres elementos de la Informática. Aunque las computadoras reducen o reemplazan el trabajo del hombre en determinadas actividades, una computadora sin las personas es un elemento inútil. Las personas son necesarias porque: - La máquina necesita de un programa para hacer algo y estos programas deben ser diseñados, codificados y mantenidos durante todo su período de vida útil. Estas tareas las realizan las personas especializadas para tal fin. - Los distintos componentes del hardware evolucionan con el tiempo, haciéndose más potentes y eficaces. El diseño y construcción de estos componentes debe ser llevado a cabo por personas. - Cada empresa necesita un equipo informático de acuerdo a sus necesidades. El estudio del equipo necesario, la instalación y el mantenimiento del mismo sólo puede ser llevado a cabo por el hombre. El papel de las personas en la Informática es fundamental, aunque muchos crean que la computadora terminará reemplazando al hombre en todas las actividades en las que actualmente es irreemplazable. Aplicaciones de la Informática Es bien conocido que uno de los agentes más importantes de la sociedad actual es la información, de ahí el gran desarrollo e interés de la Informática, que tiene por objeto el “tratamiento automático de la información”. Hay pocas actividades humanas en que la Informática no tenga incidencia, de forma directa o indirecta. Actualmente, se han desarrollado nuevas metodologías y técnicas que han ampliado notablemente el campo de aplicaciones de la Informática. La Inteligencia Artificial es una metodología ideada para el uso de computadoras, para simular varios aspectos del comportamiento inteligente. Estos aspectos comprenden el razonamiento deductivo, visión, comprensión del lenguaje natural, habla, resolución de problemas, modelado del comportamiento humano. Hay sistemas expertos para diagnósticos médicos, reparación y mantenimiento de computadoras, concesión de préstamos bancarios, etc. Docente a Cargo: Arq. Susana M. TURRACA Prof. para el 3º ciclo del EGB y el Nivel Polimodal en Tecnología
6
INSTITUTO DE FORMACIÓN DOCENTE “JOSÉ MANUEL ESTRADA” Tecnología de la Información y la Comunicación I y II Las posibles aplicaciones de la Informática se agrupan en: 1. Procesamiento de datos administrativos - Contabilidad. Stock. Facturación. Gestión de Personal - Control de producción y de productividad - Planificación y control de proyectos, Programación lineal - Modelos financieros y predicción (de bolsa, por ejemplo) - Gestión bancaria, Gestión bibliotecaria - Seguros, Sistemas de reserva y expedición de pasajes. - Paquetes integrados de Oficina Electrónica u OFIMATICA (incluye Procesadores de texto, Hoja electrónica de cálculos, Gestión de bases de datos, etc.) 2. Ciencias físicas e ingeniería - Resolución de ecuaciones y de problemas matemáticos. - Análisis de datos experimentales utilizando técnicas estadísticas. - Realización de tablas matemáticas. 3. Ciencias de la vida y médicas - Investigación médica, biológica y farmacéutica. - Ayuda al diagnóstico (sistemas expertos para diagnóstico médico). - Base de datos con historias clínicas, Medicina preventiva (control de vacunación). 4. Ciencias sociales y del comportamiento - Análisis de datos (evaluación de encuestas). - Bases de datos jurídicas (legislación, jurisprudencia, etc.). - CAI (Enseñanza asistida por computadora), la computadora como herramienta pedagógica, Juegos (video juegos, ajedrez, etc.). 5. Arte y humanidades - Aplicaciones al arte: composición de cuadros, composición musical, películas de dibujos animados, etc. - Análisis automático de textos (determinación de frecuencia de uso de palabras, etc.) 6. Ingeniería asistida por computadora - Diseño, fabricación y test con ayuda de computadora. Estas aplicaciones se identifican como CAD, CAM y CADMAT, se realizan con estaciones de trabajo con altas prestaciones gráficas. - Informática Industrial: Control o monitoreo de unidades individuales (encendido de una lámpara).
Docente a Cargo: Arq. Susana M. TURRACA Prof. para el 3º ciclo del EGB y el Nivel Polimodal en Tecnología
7
INSTITUTO DE FORMACIÓN DOCENTE “JOSÉ MANUEL ESTRADA” Tecnología de la Información y la Comunicación I y II AUTOEVALUACIÓN Primera parte 1. Defina y explique el término Informática. 2. Dé, por lo menos 5 ejemplos, de tratamiento automático de información que observe en forma cotidiana. 3. Explique qué aspectos hay que conocer para entender los procesos de automatización del tratamiento de información, posibilitado por la Informática. 4. Explique a qué se refiere el término “Sistema Informático”. 5. Explique que estudia la Informática como disciplina. 6. Qué aportan la matemática y la ingeniería a la Informática. 7. Enumere productos tecnológicos informáticos destinados a satisfacer demandas de la sociedad. 8. Defina los términos: Información y Dato. 9. En la lista siguiente indique a que tipo de dato corresponden los siguientes valores: 125231…………………..…….. Juan Alejandro………………..……….. RVR976……………..…..…………. 9 de Julio 1449…………………………. 999705………………………… Pentium III………………..………. 10. Elabore, por lo menos, 5 ejemplos de lo que para la Informática, constituye INFORMACION. 11. De los ejemplos dados, diferencie a aquellos que se refieren a información precisa y útil para la toma de decisiones. 12. El procesamiento de datos o tratamiento de la información, está constituido por tres actividades básicas, ¿cuáles son? 13. En los ejemplos, siguientes indique a qué paso de procesamiento de datos corresponde: a) Ingreso de clave de acceso en un cajero automático. b) Visualización del saldo de una cuenta en la pantalla de un cajero automático. c) Suma el importe de los productos adquiridos en el supermercado. d) Registra el importe depositado en una cuenta e) Transfiere el importe de una operación de extracción en un cajero automático a la base de datos principal. f) Lee datos de inscripción de los alumnos desde un formulario en pantalla. g) Muestra en pantalla el resultado de una búsqueda en la Web. h) Genera total de alumnos inscriptos por Carrera y por Facultad. i) Ordena datos de inscripción de los alumnos por apellido y nombre. j) Imprime los exámenes y notas obtenidas de un alumno particular. 14. Indique que tipo de operación de tratamiento de información, corresponde a las siguientes descripciones: a) Lee datos de un disquete b) Graba datos en el disco rígido c) Ordena los datos por Apellido y Nombre d) Calcula el promedio de notas obtenidas por un alumno. e) Determina si el promedio de notas es mayor o igual que 8 f) Imprime un listado de los alumnos. g) Los archivos del disquete se guardan en el disco rígido. 15. Explique qué importancia tiene en la actualidad la obtención de Información en forma automatizada. 16. Defina el concepto Codificación y explique por qué se utiliza en Informática. 17. Explique a qué se llama BIT y a qué se llama BYTE 18. Complete: a) La unidad mínima de información es el…………………………………………………………………….…… b) La unidad mínima de almacenamiento es el……………………………………………………………….…… 19. Defina que es una computadora y explique en qué se diferencia de una calculadora. 20. Explique a qué se llama programa y cómo esta compuesto. 21. Indique los 3 paradigmas de programación vigentes en la actualidad. 22. Indique cuáles son los elementos básicos en la Informática.
Docente a Cargo: Arq. Susana M. TURRACA Prof. para el 3º ciclo del EGB y el Nivel Polimodal en Tecnología
8
INSTITUTO DE FORMACIÓN DOCENTE “JOSÉ MANUEL ESTRADA” Tecnología de la Información y la Comunicación I y II 23. De la siguiente lista indique cuáles corresponden al hardware, software y personal informático. Procesador de texto Módem Planilla de cálculo Archivo de datos de alumnos Impresora Sitio de Internet Chip microprocesador Documento PDF Base de dato de empleados Cable paralelo de conexión de Impresora Windows
Placa madre Programador de aplicaciones Monitor Analista de Sistemas Tarjeta de red Lenguaje HTML Página Web Cable de fibra óptica Ingeniero en Sistemas Licenciado en Sistemas XP Linux
24. De ejemplos de aplicaciones informáticas en la cuales se manejen un gran volumen de datos y otras en las que se requiera una gran precisión y seguridad en el tratamiento.
Docente a Cargo: Arq. Susana M. TURRACA Prof. para el 3º ciclo del EGB y el Nivel Polimodal en Tecnología
9
INSTITUTO DE FORMACIÓN DOCENTE “JOSÉ MANUEL ESTRADA” Tecnología de la Información y la Comunicación I y II SEGUNDA PARTE:
Representación de la información en las computadoras Introducción Dos de los aspectos más importantes que se presentan en Informática, relacionados con la información, es cómo representarla y cómo materializarla o registrarla físicamente. En la representación al interior de las computadoras, se consideran cuatro tipos de información: textos, datos numéricos, sonidos e imágenes. Cada uno de ellos presenta características diferentes. El objetivo es comprender los procesos que transforman la información externa a la computadora en patrones de bits fácilmente almacenables y procesables por los elementos internos de la misma. Sistemas Numéricos El estudio de las computadoras y del procesamiento de datos requiere algún conocimiento de los sistemas numéricos, ya que éstos constituyen la base de todas las transformaciones de información que ocurren en el interior de la computadora. El sistema binario, compuesto por los símbolos 1 y 0, es el que utiliza la computadora en su funcionamiento interno. La computadora opera en binario debido a que sus componentes físicos, pueden representar solamente dos estados de condición: apagado/prendido, abierto/cerrado, magnetizado/no magnetizado, etc. Estados de condición a los que se les asigna el valor 1 ó 0. El sistema decimal, compuesto por los símbolos 0 al 9, es el sistema numérico que utilizamos a diario. El sistema hexadecimal con 16 símbolos, ofrece la posibilidad de comprimir los números binarios para hacerlos más sencillos de tratar. Los sistemas numéricos difieren en cuanto a la disposición y al tipo de los símbolos que utilizan. En este tema se analizaran los sistemas decimal, binario y hexadecimal. Para entender los procesos de representación de las cifras numéricas utilizando los sistemas de numeración, veremos los conceptos de valor relativo y posicional de los números. Posiciones de valor relativo. Los árabes inventaron los símbolos numéricos y el sistema de posición relativa sobre el cual se basa nuestro sistema decimal actual y otros sistemas numéricos. Cada uno de los símbolos tiene un valor fijo superior en uno al valor del símbolo que lo precede en la progresión ascendente: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9. Cuando se combinan varios símbolos (o dígitos), el valor del número depende de la "posición relativa" de cada uno de los dígitos y del "valor de los dígitos", el primero es el "valor posicional" y el segundo es el "valor absoluto". En cualquier sistema de posiciones de valor relativo, la posición del dígito de la extrema derecha es la de menor valor, o posición de orden inferior, y el dígito que la ocupa se denomina "dígito menos significativo". El incremento de valor de cada posición de dígito depende de la base o raíz del sistema numérico. De este modo, en el sistema decimal, que utiliza la base 10, el valor de las posiciones de dígito a la izquierda del dígito menos significativo (o posición de unidades), aumenta en una potencia de 10 por cada posición. El sistema decimal tiene base (raíz) 10, porque dispone de 10 símbolos (0-9) numéricos discretos para contar. Entonces, la "base" de un sistema numérico es la cantidad de símbolos que lo componen y el valor que define al sistema. Como ejemplo de valor relativo de los dígitos, consideremos el número decimal 6.954. Aunque su valor es evidente a simple vista, la notación 6.954 significa en realidad: 6000 + 900 + 50 + 4 = 6.954 El valor relativo de cada dígito es aun más claro si el número se expresa en potencias de diez. Cualquier entero positivo n que se representa en el sistema decimal como una cadena de dígitos decimales, puede expresarse también como una suma de potencias de diez ponderada por un dígito. Ejemplo: 6.954 = 6 x 103+ 9 x 102+ 5 x 101+ 4 x 100= 6 x 1000 + 9 x 100 + 5 x 10 + 4 x 1 A esto se llama notación expandida para el entero. Las potencias de diez: 100= 1; 101= 10; 102= 100; 103= 1000, corresponden, respectivamente, a los dígitos en un entero decimal cuando se leen de derecha a izquierda. Cualquier valor fraccionario m, representado en el sistema decimal por una cadena de dígitos decimales junto con un punto decimal intercalado, puede expresarse también en notación expandida usando potencias negativas de 10. Específicamente, el valor posicional de los dígitos a la derecha del punto decimal es, respectivamente: Docente a Cargo: Arq. Susana M. TURRACA Prof. para el 3º ciclo del EGB y el Nivel Polimodal en Tecnología
10
INSTITUTO DE FORMACIÓN DOCENTE “JOSÉ MANUEL ESTRADA” Tecnología de la Información y la Comunicación I y II
El sistema de posiciones de valor relativo no es posible sin el cero. Su presencia en un número significa simplemente que la potencia de la base representada por la posición del dígito 0 no se utiliza. Por lo tanto, el número decimal 8.003 significa:
Estas reglas del valor relativo se aplican en general a todos los sistemas numéricos, sea cual fuere la base o raíz que se use. Sistema decimal El más importante factor en el desarrollo de la ciencia y la matemática fue la invención del sistema decimal de numeración. Este sistema utiliza diez símbolos: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, denominados generalmente "cifras decimales". La costumbre de contar por decenas se originó probablemente en el hecho de tener el hombre diez dedos. Sistema binario El sistema numérico binario (de base 2) usa solamente dos símbolos diferentes, 0 y 1, que significan "ninguna unidad" y "una unidad" respectivamente. A diferencia del sistema decimal, el valor relativo de los dígitos binarios a la izquierda del dígito menos significativo aumenta en una potencia de dos cada vez, en lugar de hacerlo en potencias de diez. Específicamente, los valores de posición de la parte entera de un número binario son las potencias positivas de dos: 2 4 2 3 2 2 2 1 2 0 (de derecha a izquierda) Y los valores de posición de la parte fraccionaria de un número binario son las potencias negativas de dos: 2 - 1 2 - 2 2 - 3 2 - 4 (de izquierda a derecha). Potencia de dos 210 29 28 27 26 25 24 23
Valor decimal 1024 512 256 128 64 32 16 8
Potencia de dos 22 21 20 2-1 2-2 2-3 2-4 2-5
Valor decimal 4 2 0 0,5 0,25 0,125 0,0625 0,03125
Por ejemplo, el número binario 101101,11 significa:
Para evitar confusiones, cuando se emplean varios sistemas de notación, se acostumbra encerrar cada número entre paréntesis y escribir la base como subíndice, en notación decimal. Utilizando el ejemplo precedente, tenemos que: 101101,11 (2) = 45,75 (10) Sistema hexadecimal Los números binarios de gran magnitud consisten en largas series de ceros y unos, que son difíciles de interpretar y manejar. Como un medio conveniente para representar esos números binarios de gran magnitud se utiliza el sistema numérico hexadecimal (de base 16). Cada dígito hexadecimal representa cuatro dígitos binarios. Docente a Cargo: Arq. Susana M. TURRACA Prof. para el 3º ciclo del EGB y el Nivel Polimodal en Tecnología
11
INSTITUTO DE FORMACIÓN DOCENTE “JOSÉ MANUEL ESTRADA” Tecnología de la Información y la Comunicación I y II La notación hexadecimal requiere el uso de 16 símbolos para representar 16 valores numéricos. Dado que el sistema decimal proporciona solamente diez símbolos numéricos (de 0 a 9), se necesitan seis símbolos adicionales para representar los valores restantes. Se han adoptado para este fin las letras A, B, C, D, E, y F aunque podrían haberse utilizado cualesquiera otros símbolos. La lista completa de símbolos hexadecimales consta, por lo tanto, del 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E y F, en orden ascendente de valor. La tabla 1 muestra los números decimales, hexadecimales y binarios equivalentes (hasta el número 31). Nótese que al alcanzarse el número decimal 16, se terminan los símbolos hexadecimales y se coloca un "1de acarreo" delante de cada símbolo hexadecimal en el segundo ciclo, que abarca los números decimales de 16 a 31. El significado de los números hexadecimales se hace evidente con el desarrollo en potencias de 16. Por ejemplo el número hexadecimal 2CA significa (reemplazando los símbolos hexadecimales con símbolos decimales):
Al resolver un ejemplo de este tipo, es más conveniente disponer los productos en columna, para facilitar la suma. Decimal 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Hexadecimal 0 1 2 3 4 5 6 7 8 9 A B C D E F
Binario Decimal 0000 16 0001 17 0010 18 0011 19 0100 20 0101 21 0110 22 0111 23 1000 24 1001 25 1010 26 1011 27 1100 28 1101 29 1110 30 1111 31 Tabla 2. Tabla de equivalencias.
Hexadecimal 10 11 12 13 14 15 16 17 18 19 1A 1B 1C 1D 1E 1F
Binario 10000 10001 10010 10011 10100 10101 10110 10111 11000 11001 11010 11011 11100 11101 11110 11111
Existe así mismo conversiones entre los distintos sistemas, que aquí solo se mencionarán, puede que algunos deseen profundizar, para ello pueden dirigirse a la siguiente página desde donde podrán bajar una información más completa del tema. Pero, para el espacio de TIC I y/o TIC II no son relevantes; http://exa.unne.edu.ar/informatica/introduccion/public_html/material.html 1. Binario a decimal 2. Hexadecimal a decimal 3. Decimal a binario; Algoritmo Parte Entera 4. Decimal a hexadecimal 5. Binario a hexadecimal 6. Hexadecimal a binario: 7. Operaciones aritméticas, reglas binarias
Docente a Cargo: Arq. Susana M. TURRACA Prof. para el 3º ciclo del EGB y el Nivel Polimodal en Tecnología
12
INSTITUTO DE FORMACIÓN DOCENTE “JOSÉ MANUEL ESTRADA” Tecnología de la Información y la Comunicación I y II Representación de la información Cuando se pretende plasmar la información de una forma transmisible y más o menos permanente, se debe disponer de un soporte físico adecuado, el cual contenga a la información. Existe una variedad de soportes físicos y algunos muy modernos, pero un medio que sigue en plena vigencia es la ESCRITURA. Han evolucionado los métodos pero el fundamento sigue siendo el mismo: poner en la secuencia conveniente una serie de símbolos escogidos dentro de un conjunto predefinido. La información se representa en base a cadenas de símbolos. En base a un alfabeto convencional cualquiera sobre el que se establece un acuerdo cultural de entendimiento entre el que escribe y el que lee podemos representar cualquier información compuesta de palabras y cantidades numéricas. Un alfabeto no es más que un conjunto fijado por acuerdo cultural, de símbolos elementales en base a los cuales se forma la información. Cualquier alfabeto se fija arbitrariamente, y esto es muy importante, porque si la Informática ha logrado el tratamiento automático de la información con máquinas, ha sido gracias a este concepto. No es necesario que el alfabeto que usa una máquina en su interior sea el mismo que utiliza el hombre que la ha construido y la maneja, basta con que la transformación de los símbolos internos a los externos o viceversa se efectúe de una manera sencilla, de ser posible automáticamente por la propia máquina. Codificación de la información 2 Cuando una información que originalmente venía representada en un alfabeto A1 es transcrita a un segundo alfabeto A2, se dice que ha sido codificada. El caso más sencillo es cuando ambos alfabetos tienen la misma cantidad de símbolos y a cada símbolo del primer alfabeto le corresponde un símbolo del segundo alfabeto (correspondencia biunívoca o biyectiva). Otro caso es cuando el segundo alfabeto dispone de un número de símbolos menor que el alfabeto de partida. Es obvio que en este caso ya no podemos recurrir a una correspondencia de símbolos uno a uno y tendremos que transcribir (codificar) cada símbolo del conjunto A1 con una combinación de símbolos del conjunto A2. Un ejemplo es el sistema de codificación Morse empleado en los inicios de la telegrafía. Éste disponía tan solo de dos elementos: el punto y la raya. Esto se debió a razones técnicas: querer distinguir más de dos niveles de pulsación (corto = punto; largo = raya) hubiera sido totalmente inoperante, los mensajes hubieran estado sometidos a una enorme cantidad de subjetivismo y malas interpretaciones. Existen razones que determinan la necesidad de que la información sea codificada y ellas son: 1) Debido a la transmisión automática de la información. 2) Necesidad de abreviar la escritura. 3) Hacer secreta e ininteligible la información que se codifica. Se trata de hacer críptico un mensaje plasmándolo en un sistema de codificación que el emisor y el receptor conocen pero que un posible interceptor desconocerá. Codificar significa transformar unos datos de su representación actual a otra representación predefinida y preestablecida, que podrá ser tan arbitraria y convencional como se quiera, pero que deberá tener en cuenta el soporte físico sobre el cual se va a mantener los datos, así como los procesos a los cuales se los deberá someter y, también, si necesitamos o no transmitirlos a través de ciertos canales físicos de comunicación. Sistemas de codificación binarios Cuando los símbolos de un alfabeto A1 son transcritos a un alfabeto que sólo tiene dos símbolos diremos que tenemos un sistema de codificación binario. El motivo para utilizar este alfabeto de codificación es de tipo técnico. Existen dificultades técnicas al usar dispositivos físicos que puedan diferenciar con el debido grado de fiabilidad más de dos estados claramente separados en cualquier circunstancia y frente a cualquier posible perturbación. Se debe recurrir, por lo tanto a dispositivos físicos biestables (con dos estados físicos diferenciados en forma clara y estable). Por ejemplo: Corriente eléctrica: Distinguir entre diez o más niveles de voltaje o intensidad es altamente delicado y caro. Distinguir entre dos extremos de pasa / no pasa corriente es económico y concede un amplio margen de tolerancia. Intensidad de la luz: Sería prácticamente imposible discernir a simple vista entre varias intensidades de luz. Podemos separar claramente dos situaciones extremas luz apagada / luz encendida. Sentido de la magnetización: Diferenciar entre los valores que puede asumir un campo magnético es complicado, pero diferenciar entre una magnetización norte-sur y su contraria, es bastante fácil y fiable. Docente a Cargo: Arq. Susana M. TURRACA Prof. para el 3º ciclo del EGB y el Nivel Polimodal en Tecnología
13
INSTITUTO DE FORMACIÓN DOCENTE “JOSÉ MANUEL ESTRADA” Tecnología de la Información y la Comunicación I y II Códigos de representación de la información en las computadoras Los datos ó cualquier información que se manejan internamente en un sistema informático se pueden representar, según sus características, de la siguiente manera:
Texto 1.1. Codificación BCD de 6 bits: Las primeras computadoras para la representación de sus datos tanto numéricos como alfanuméricos utilizaban códigos de 6 bits. Este sistema admitía 26 (64) caracteres únicos, lo cual era suficiente para 26 letras mayúsculas, 10 dígitos y hasta 28 caracteres especiales tales como / * .; , .( ) + -.. 1.2. EBCDIC: Código de Intercambio Decimal Codificado en Binario Extendido. Es un sistema de codificación de 8 bits, donde cada carácter se representa como una cadena de 8 dígitos binarios y hay un total de 28 (256) caracteres a disposición. 1.3. ASCII: Código Estándar Americano para el Intercambio de Información. El código ASCII básico utiliza 7 bits y se usa especialmente para la transmisión de datos. Muchos de estos caracteres de control ya no se utilizan en las PCs actuales. 1.4. UNICODE Este código fue propuesto por un consorcio de empresas y entidades con el objetivo representar texto de muy diversas culturas. Los códigos anteriores presentan varios inconvenientes, tales como: • Los símbolos son limitados para representar los caracteres especiales que requieren numerosas aplicaciones. • Los símbolos y códigos añadidos en las versiones ampliadas a 8 bits no están normalizados. • Están basados en los caracteres latinos, existiendo otras culturas que utilizan otros símbolos muy distintos. • Los lenguajes escritos de diversas culturas orientales, como la china, japonesa y coreana se basan en la utilización de ideogramas o símbolos que representan palabras, frases o ideas completas, siendo, por tanto, inoperantes los códigos que sólo codifican letras individuales. Docente a Cargo: Arq. Susana M. TURRACA Prof. para el 3º ciclo del EGB y el Nivel Polimodal en Tecnología
14
INSTITUTO DE FORMACIÓN DOCENTE “JOSÉ MANUEL ESTRADA” Tecnología de la Información y la Comunicación I y II Datos Numéricos 2.1. Enteros 2.2. Reales (Coma Flotante) Sonidos Las aplicaciones multimedia han adquirido una gran importancia, principalmente debido al desarrollo de la web. Estas aplicaciones procesan tanto texto, como sonido e imágenes. El sonido, igual que los elementos visuales, tiene que ser grabado y formateado de forma que la computadora pueda manipularlo y usarlo en presentaciones. Los formato audio más usuales son el de forma de onda (WAV) y el Musical Instrument Digital Interface (MIDI). Los formatos WAV almacenan el sonido como hacen los CD musicales o las cintas de audio; estos formatos WAV pueden ser muy grandes y requerir compresión. Los formatos MIDI no almacenan sonidos, sino instrucciones que permiten a unos dispositivos llamados sintetizadores reproducir los sonidos o la música. Los archivos con formato MIDI son mucho más pequeños que los archivos con formato WAV, pero la calidad de la reproducción del sonido es bastante menor. 3.1. Representación del sonido Las ondas de sonido se representan como una curva continua llamada señal analógica. Cuyos componentes principales de una señal analógica son: La Línea Base, el Período, la Frecuencia, y la Amplitud.
- La Línea Base corta la señal aproximadamente por la mitad, y es un punto de referencia para medir el sonido. - El Período es la cantidad de tiempo que transcurre entre dos ciclos sucesivos de la onda de sonido. - La Frecuencia es el inverso del período, o número de ciclos por segundo. Se mide en hertz (Hz) o en kilohertz (KHz). Donde los sonidos audibles para los seres humanos tienen una frecuencia entre 20 Hz y 20 KHz. - La Amplitud de la señal es la distancia de la línea base a un pico dado, determina el volumen del sonido. 3.2. Grabación de una señal de sonido Para el procesamiento de señales analógicas se usan circuitos de muestreo y retención, que permiten tomar muestras de la amplitud de la onda de sonido a intervalos de tiempo fijo. El número de muestras tomadas por segundo se conoce como Frecuencia de muestreo. En la figura siguiente se muestra una frecuencia de muestreo de 28 Hz.
Docente a Cargo: Arq. Susana M. TURRACA Prof. para el 3º ciclo del EGB y el Nivel Polimodal en Tecnología
15
INSTITUTO DE FORMACIÓN DOCENTE “JOSÉ MANUEL ESTRADA” Tecnología de la Información y la Comunicación I y II La frecuencia de muestreo debe ser como mínimo 2 veces la frecuencia máxima contenida en la señal. Mientras más alta sea la frecuencia de muestreo mejor será la calidad del sonido. La siguiente tabla presenta las frecuencias de muestreo más usadas, el número de muestras por segundo, la calidad del sonido y sus aplicaciones usuales. 3.3. Digitalización del sonido en la computadora Una vez convertida la señal analógica a una señal discreta por medio del circuito de muestreo y retención se representa cada uno de los valores de amplitud retenidos en código binario (señal digital). A cada muestra de sonido tomada corresponde un valor de amplitud, que en la computadora se representa en 8 o en 16 bits. 3.4. Calidad del sonido y espacio de almacenamiento La frecuencia de muestreo es un número que indica la cantidad de muestras que se toman en un segundo. La resolución o profundidad del sonido es un número que indica cuantos bits se utilizan para representar cada muestra. La calidad del sonido depende de estos dos factores, cuanto mayor sean estos valores, más parecida será la calidad del sonido digital al real. Otra variable que afecta la calidad del sonido es el número de canales de entrada. Un sonido monofónico se produce cuando la fuente de audio tiene un canal de entrada, mientras que un sonido estereofónico resulta cuando la fuente de audio tiene dos canales de entrada. El estándar de calidad audio CD determina una frecuencia de 44,1 Khz y 16 bits estéreo. Esto quiere decir que para esta calidad se toman 44.100 muestras que se representan con 16 bits y en dos canales independientes (sonido estéreo). Para conocer el espacio en disco requerido para almacenar 3 minutos de música con esta calidad se realiza el siguiente cálculo: 3 minutos x 60 segundos= 180 segundos 180 segundos x 44100 muestras por segundo = 7.938.000 de muestras 7.938.000 muestras x 16 bits = 127.008.000 bits 127.008.000 x 2 canales = 254.016.000 bits 254.016.000/8 = 31.752.000 bytes, aproximadamente 30 MB. Es necesario entonces buscar un equilibrio entre la calidad de sonido deseado y los recursos de almacenamiento disponibles en la computadora. Las ventajas de la digitalización del sonido es que se puede guardar y copiar infinitas veces sin pérdida de calidad y puede procesarse digitalmente de manera más flexible y potente que con procesos analógicos 3.5. Formatos del sonido digitalizado - Audio digital en formato de onda o audio CD o .wav Formato por excelencia para almacenar el sonido digital. Su principal ventaja, su calidad, su principal inconveniente, el espacio que ocupa. Por ejemplo, en un CD caben sólo 70 minutos de audio a la máxima calidad: 44,1KHz, 16 bits y estéreo (2 canales). - El formato MIDI sólo se almacenan las notas que deberán ser tocadas en cada instante. Por tanto permite gran flexibilidad y es ideal para compositores. Sin embargo, para obtener una calidad aceptable, es necesario que la tarjeta de sonido disponga de tabla de ondas o, en su defecto, de un sintetizador virtual. Otra carencia importante es que no se puede añadir voces humanas, las voces no se pueden sintetizar tan fácilmente como el sonido de un instrumento. - El formato MP3. El mp3 es una especificación para la compresión de ficheros de onda (los .wav). Se consigue reducir el tamaño original de los ficheros en unas 10 veces. La compresión normalmente es con pérdida, perdiendo parte del sonido, bien por ser datos redundantes o por tratarse de zonas donde apenas llega el oído humano. Imágenes 4.1. Representación de imágenes Las imágenes se adquieren por medio de periféricos tales como escáneres, cámaras de video o cámaras fotográficas. Como todo tipo de información, una imagen se representa por patrones de bits, generados por el periférico correspondiente. Si bien hay sistemas de codificación de imágenes muy diversos, existen 2 formas básicas de representar las imágenes: • Mapa de bits • Mapa de vectores Docente a Cargo: Arq. Susana M. TURRACA Prof. para el 3º ciclo del EGB y el Nivel Polimodal en Tecnología
16
INSTITUTO DE FORMACIÓN DOCENTE “JOSÉ MANUEL ESTRADA” Tecnología de la Información y la Comunicación I y II a) Mapa de bits: Una imagen está compuesta por infinitos puntos, y a cada uno de ellos se le asocia un atributo que puede ser su nivel de gris, en el caso de una imagen en blanco y negro, o su color, cuando la imagen es en color. Entonces, para codificar y almacenar una imagen hay que tener en cuenta estos dos factores: el número de puntos a considerar (resolución) y el código de atributo (profundidad de color) asociado a cada punto. Como no es posible captar los infinitos puntos, los sistemas de captación consideran a la imagen dividida en una grilla de celdas o elementos de imagen o píxeles. A cada punto se le asigna un atributo de su nivel de gris o información de color. La resolución de imagen es el número de puntos por línea x el número de elementos por columna, tal como se muestra en la Figura A, y determina la calidad de la imagen. Por ejemplo, la imagen de una fotografía típica esta constituida por infinitos puntos, si se la representa con una resolución de 1280 x 1024 el ojo humano la considera como continua (los píxeles no se notan), de manera tal que, a mayor resolución mayor será la calidad de imagen.
Algunas resoluciones usuales para digitalización de imágenes son:
Además de la resolución, un factor determinante de un gráfico es el código del atributo del punto de imagen. Está constituido por un número de bits determinado que define la profundidad de color. En el caso de imágenes en blanco y negro, la cantidad de bits del código del atributo determina las variantes de color. Por ejemplo, 8 bits permiten representar hasta 256 niveles de grises. La imagen se representa sencillamente almacenando los atributos de los puntos de la imagen sucesivos en orden, de izquierda a derecha y de arriba abajo, tal como se muestra en la Figura B. (ver más arriba) En el caso de imágenes en color, éste se descompone en tres colores básicos: rojo (R), verde (G) y azul (B), y la intensidad media de cada uno de ellos en cada celda se codifica por separado. Para conseguir una gran calidad de colores (calidad fotográfica), cada color básico debe codificarse con 8 bits, es decir, se requieren 3 bytes para codificar cada elemento de imagen, lo que requiere de una gran capacidad para almacenar una imagen. 4.2.1. Tamaño y resolución de imágenes Como se dijo anteriormente, la resolución de imagen es el número de píxeles mostrados por unidad de longitud impresa en una imagen, que normalmente se mide en píxeles por pulgada (ppi, píxel per inch). Las fotografías que se obtienen a partir de las cámaras digitales son mapas de bits, las imágenes que captura un escáner también. Docente a Cargo: Arq. Susana M. TURRACA Prof. para el 3º ciclo del EGB y el Nivel Polimodal en Tecnología
17
INSTITUTO DE FORMACIÓN DOCENTE “JOSÉ MANUEL ESTRADA” Tecnología de la Información y la Comunicación I y II En estas imágenes la calidad máxima que tienen (número de píxel por unidad de medida, píxeles/cm.; píxeles/pulgada) se determina en el momento de crearlas por lo que no se puede ampliar la resolución o número de píxeles por unidad posteriormente. Es decir, no se puede ampliar su resolución sin que la imagen se vea afectada, en general deformándose y perdiendo nitidez, ya que se modifican los píxeles que las definen. Observar el efecto sobre la calidad de la imagen cuando se agranda el tamaño de una imagen en la figura C. El tamaño de los píxeles determina la cantidad de detalle de la imagen; las dimensiones de estos píxeles y el número de ellos es lo que da la calidad final (Alta, media ó baja).
Figura C. Al ampliar la imagen se produce el efecto de imagen pixelada.
La resolución y el tamaño de archivo esta relacionada de forma proporcional. Por ejemplo, una imagen de 1cm. x 1cm. con una resolución de 72 p/cm. contiene un total de 5.184 píxeles (72 x 72). Esa misma imagen con una resolución de 300 p/cm. contendría un total de 90.000 (300 x 300) píxeles. Esta diferencia afecta al tamaño de archivo, idefectiblemente. 4.2.2. Cálculo del tamaño de una imagen Para calcular la capacidad requerida por una imagen hay que tener en cuenta, como vimos antes, la resolución y la longitud en bits del código de atributo (profundidad de color). Ejemplo 1: Obtener la capacidad requerida para una imagen en blanco y negro con una resolución de 640 x 350 y con 16 niveles de grises. En este caso, para codificar el atributo se necesitan 4 bits, ya que 24 = 16, y en total hay que almacenar 640 x 350 = 224000 elementos o píxeles. Con lo cual la capacidad requerida será: 224000 x 4 = 896000 bits = 112000 bytes = 109,375 KB Ejemplo 2: Obtener la capacidad de memoria que ocupará una imagen en color con una resolución 800 x 600 y con 256 niveles para representar cada color básico. Para codificar el atributo color se necesitan 3 bytes (1 byte = 28 = 256). La cantidad de puntos de la imagen es de 800 x 600 = 480000 elementos. Con lo cual la capacidad requerida será de: 480000 x 3 bytes = 1406,25KB aproximadamente 1,37 MB. 4.2.3. Compresión de imágenes Uno de los principales inconvenientes que tienen los bitmaps3 de alta resolución es el enorme espacio que ocupan llegándose a crear archivos de mucho peso para ser manejados con facilidad; para evitar este problema se han desarrollado diferentes técnicas de compresión, éstas tratan de reducir mediante algoritmos matemáticos el volumen del archivo. Existen dos técnicas o tipos de compresión: Las técnicas “sin pérdidas”: Comprimen el archivo sin eliminar detalle de la imagen ni información de color. Las técnicas “con pérdidas”: Eliminan detalle de la imagen e información de las mismas. Las más habituales son las siguientes: - GIF - Graphical interchange format ó Formato de intercambio gráfico. El formato GIF es uno de los más utilizados sobre todo para imágenes Web; esto es debido a su alto nivel de compresión. Utiliza el mecanismo de la “Tabla de consulta de colores” (CULT): Donde la relación de compresión de una fotografía que se pasa a GIF es de 4 a 1. 3
Ver en: http://es.wikipedia.org/wiki/Windows_bitmap Docente a Cargo: Arq. Susana M. TURRACA Prof. para el 3º ciclo del EGB y el Nivel Polimodal en Tecnología
18
INSTITUTO DE FORMACIÓN DOCENTE “JOSÉ MANUEL ESTRADA” Tecnología de la Información y la Comunicación I y II - JPEG (Join photographic expert group): JPEG guarda toda la información referente al color en millones de colores y sin que por ello el archivo resultante sea demasiado grande, eso si, a mayor nivel de compresión mayor pérdida de la imagen. La técnica de compresión que utiliza el JPEG se llama DCT (Discrete cosine transform ó transformación discreta de coseno). Esta compresión está basada en la idea de que el ojo humano percibe peor los cambios de color que las variaciones de brillo. JPEG no guarda el valor RGB para cada píxel sino que divide la información en dos partes, por una parte el color y por otra el brillo, y además, las comprime por separado. Esto hace que JPEG no sea el formato adecuado para imágenes con contrastes de color altos. A mayor suavidad en los cambios de color mejor nivel de compresión. Y a mayor contraste peor. Por ejemplo, la compresión de una imagen con texto no se verá con nitidez, sin el texto sí. Pese a esto, JPEG es uno de los formatos que mejor comprime, puede llegar a comprimir en una relación de 10:1 y 20:1 (para imágenes de calidad alta) sin que las mismas tengan una pérdida visible. - PNG (Portable networkgraphic format). Permite una compresión sin pérdidas con una profundidad de color de 24 bits y además tiene 256 niveles de transparencias, esto permite que cualquier borde de la imagen se funda perfectamente con el fondo. Aparentemente PNG es mejor formato que JPEG O GIF, sin embargo no es capaz de producir imágenes animadas (GIF sí) y las imágenes de PNG son siempre de mayor peso que las de JPEG. - BMP: Es el formato de Windows para bitmaps, es un formato muy conocido aunque su compresión comparada con GIF o JPEG es muy pobre. - TIFF (Tag image file format) Es uno de los formatos más utilizados ya que es admitida prácticamente por todas las aplicaciones de edición e imagen. Es un formato que permite muchas posibilidades y que es compatible tanto para Mac como PC. 4.3. Mapa de vectores Características: Otra forma de representar una imagen es mediante la descomposición de la misma en un conjunto de objetos tales como líneas, polígonos y textos con sus respectivos atributos y detalles (grosor, color, etc.), modelables por medio de vectores y ecuaciones matemáticas, que determinan tanto su forma como su posición dentro de la imagen. Cuando la imagen se visualiza en la pantalla o impresora, un programa evalúa las ecuaciones y escala los vectores generando la imagen concreta a ver. Características de este tipo de representación: • Son adecuadas para gráficos de tipo geométrico, en particular en aplicaciones de diseño asistido por computadora (CAD). • Los archivos vectoriales ocupan mucho menos espacio que los mapas de bits, y las imágenes son más fáciles de escalar a cualquier tamaño y de procesar. Los principales elementos de un vector son las curvas Béizer 4(curvas representadas matemáticamente). Estas líneas o curvas béizer son muy manejables ya que permiten muchas posibilidades por su plasticidad. Estas características las convierten en la manera ideal de trabajar cuando se trata de diseño gráfico, (como creación de logotipos o dibujos).
Curva de Béizer 4
Curva de Béizer. La curva queda definida por los nodos o puntos de anclaje y por las manecillas de control que definen y modelan su forma. Para modificarlas simplemente hay que mover las manecillas hasta que consigamos la curva deseada
Docente a Cargo: Arq. Susana M. TURRACA Prof. para el 3º ciclo del EGB y el Nivel Polimodal en Tecnología
19
INSTITUTO DE FORMACIÓN DOCENTE “JOSÉ MANUEL ESTRADA” Tecnología de la Información y la Comunicación I y II Formatos vectoriales Al utilizar los formatos vectoriales coordenadas matemáticas para formar imágenes concretas, la resolución de las mismas es infinita, es decir, toda imagen vectorial se puede escalar ampliando o reduciendo sin que la visibilidad de la misma se vea afectada. La imagen vectorial permite crear contornos de línea variada y definir el color de las formas que éstas crean. La forma se puede controlar de manera muy precisa y cada objeto se puede manejar de forma independiente al resto ya que esta construido con una fórmula matemática propia. Los más conocidos puede llegar a ser: - CDR: Es el formato del programa Corel Draw. - AI: Es el formato del programa Adobe Ilustrador. - EPS - Encapsulated Postscript: El EPS es uno de los mejores formatos para ser importados desde la mayoría de software de diseño. Es un formato muy amigable ya que se puede utilizar igualmente para imagen vectorial como mapa de bits. - WMF- Windows Metafile: Formato desarrollado por Microsoft, está especialmente indicado para trabajar de manera compatible con los programas de Microsoft.
Docente a Cargo: Arq. Susana M. TURRACA Prof. para el 3º ciclo del EGB y el Nivel Polimodal en Tecnología
20
INSTITUTO DE FORMACIÓN DOCENTE “JOSÉ MANUEL ESTRADA” Tecnología de la Información y la Comunicación I y II GLOSARIO Bitmap (.BMP) es el formato propio del programa Microsoft Paint, que viene con el sistema operativo Windows. Puede guardar imágenes de 24 bits (16,7 millones de colores), 8 bits (256 colores) y menos. Puede darse a estos archivos una compresión sin pérdida de calidad: la compresión RLE (Run-length encoding). Los archivos con extensión .BMP, en los sistemas operativos Windows, representan la sigla BitMap (o también BIT de Mapeo Picture), o sea mapa de bits. Los archivos de mapas de bits se componen de direcciones asociadas a códigos de color, uno para cada cuadro en una matriz de píxeles tal como se esquematizaría un dibujo de "colorea los cuadros" para niños pequeños. Normalmente, se caracterizan por ser muy poco eficientes en su uso de espacio en disco, pero pueden mostrar un buen nivel de calidad. A diferencia de los gráficos vectoriales, al ser reescalados a un tamaño mayor, pierden calidad. Otra desventaja de los archivos BMP es que no son utilizables en páginas web debido a su gran tamaño en relación a su resolución. Dependiendo de la profundidad de color que tenga la imagen cada pixel puede ocupar 1 o varios bytes. Generalmente se suelen transformar en otros formatos, como JPEG (fotografías), GIF o PNG (dibujos y esquemas), los cuales utilizan otros algoritmos para conseguir una mayor compresión (menor tamaño del archivo). Los archivos comienzan (cabecera o header) con las letras 'BM' (0x42 0x4D), que lo identifica con el programa de visualización o edición. En la cabecera también se indica el tamaño de la imagen y con cuántos bytes se representa el color de cada píxel. RGB se refiere al tratamiento de la señal de vídeo que trata por separado las señales de los tres colores rojo, verde y azul (en inglés Red, Green, Blue). Al usarlo independientemente, proporciona mayor calidad y reproducción más fiel del color. .Mac (pronunciado dotMac o puntoMac) fue una suite en Internet diseñada por Apple, complemento en linea para la serie de iLife, disponible para Mac y PC, pero en su totalidad para los computadores Macintosh
Docente a Cargo: Arq. Susana M. TURRACA Prof. para el 3º ciclo del EGB y el Nivel Polimodal en Tecnología
21
INSTITUTO DE FORMACIÓN DOCENTE “JOSÉ MANUEL ESTRADA” Tecnología de la Información y la Comunicación I y II BIBLIOGRAFÍA: Los temas presentados en esta unidad, han sido tomados principalmente de la siguiente página: http://exa.unne.edu.ar/informatica/introduccion/public_html/material.html Los temas presentados en esta unidad, han sido tomados principalmente de estos autores: Introducción a la Informática 3ra. Ed. Prieto, Lloris, Torres. Mc. Graw-Hill. 3ra. Edición. 2002. ISBN 84-481-3217-3. Multimedia. Zapata Martha. Disponible en : http://ingenieria.udea.edu.co/~marthac/multimedia/sonido.html Fundamentos del sonido digital. García Gil, Victor. Disponible en: http://www.ucm.es/info/Psyap/taller/vgarcia/ Curva de Béizer. La curva queda definida por los nodos o puntos de anclaje y por las manecillas de control que definen y modelan su forma. Para modificarlas simplemente hay que mover las manecillas hasta que consigamos la curva deseada
Docente a Cargo: Arq. Susana M. TURRACA Prof. para el 3º ciclo del EGB y el Nivel Polimodal en Tecnología
22