La informática es el proceso de utilizar tecnología informática para completar una determinada tarea orientada a objetivos. La informática puede abarcar el diseño y desarrollo de sistemas de software y hardware para una amplia gama de propósitos, a menudo estructurar, procesar y administrar cualquier tipo de información, para ayudar en la búsqueda de estudios científicos, hacer sistemas inteligentes y crear y usar diferentes medios para entretenimiento y comunicación.
La computación también se ha definido como una rama de la ciencia de la ingeniería que se ocupa del estudio sistemático de procesos algorítmicos, que se utilizan para describir y transformar información.
Tipos de Informática
También tiene significados específicos según el contexto y el campo en el que se utilice. Por ejemplo, la computación en la nube, la computación social, la computación ubicua, la computación en paralelo y la computación en cuadrícula caen bajo el paraguas del significado general de computación sin dejar de tener un propósito y una definición específicos separados entre sí. Básicamente, se trata de diferentes aplicaciones de la informática.
Computacion en la nube:
La computación en la nube es el acceso bajo demanda, a través de Internet, a los recursos informáticos: aplicaciones, servidores (servidores físicos y servidores virtuales), almacenamiento de datos, herramientas de desarrollo, capacidades de red y más, alojados en un centro de datos remoto administrado por servicios en la nube. proveedor (o CSP). El CSP pone estos recursos a disposición por una tarifa de suscripción mensual o los factura según su uso.
Computacion Social:
La informática social se centra en la interacción entre el comportamiento social y la información, especialmente en cómo la información se propaga a través de las redes sociales y se consume y transforma en el proceso. Al mismo tiempo, la ubicuidad de la información la ha dejado desprovista de mucho valor monetario. El recurso escaso, y por lo tanto valioso, es ahora la atención, y su asignación da lugar a una economía de la atención que determina cómo se consume y se propaga el contenido. Dado que los dos principales factores que intervienen en la atracción de la atención son la novedad y la popularidad, analizamos el papel que ambos juegan en la atracción del contenido de la web y cómo priorizarlo para maximizarlo.
Computación ubicua:
La computación ubicua (ubicomp) es un modelo de interacción humano-computadora posterior al escritorio en el que el procesamiento de la información se ha integrado completamente en los objetos y actividades cotidianos.
Computación paralela:
En términos simples, la computación paralela consiste en dividir una tarea en partes más pequeñas y ejecutarlas al mismo tiempo, cada una en su propio procesador o en un conjunto de computadoras que se han conectado en red. Veamos un ejemplo sencillo.
Computación en cuadricula:
La computación en cuadricula es la práctica de aprovechar múltiples computadoras, a menudo distribuidas geográficamente pero conectadas por redes, para que trabajen juntas para realizar tareas conjuntas. Normalmente se ejecuta en una «red de datos», un conjunto de computadoras que interactúan directamente entre sí para coordinar los trabajos.
Computación sin servidor:
La computación sin servidor (también llamada simplemente sin servidor ) es un modelo de computación en la nube que descarga todas las tareas de administración de la infraestructura de backend (aprovisionamiento, escalado, programación, aplicación de parches) al proveedor de la nube, lo que libera a los desarrolladores para que concentren todo su tiempo y esfuerzo en el código y la lógica empresarial específicos para sus aplicaciones.
Historia de la Informática
La historia de la informática es más larga que la historia del hardware informático y de la tecnología informática moderna e incluye la historia de los métodos destinados a la pluma y el papel o a la tiza y la pizarra, con o sin la ayuda de tablas.
La informática está íntimamente ligada a la representación de los números. Pero mucho antes de que surgieran abstracciones como el número, existían conceptos matemáticos que servían a los propósitos de la civilización. [Se necesita una aclaración] Estos conceptos incluyen la correspondencia uno a uno (la base del conteo), la comparación con un estándar (usado para la medición), y el triángulo rectángulo 3-4-5 (un dispositivo para asegurar un ángulo recto).
La primera herramienta conocida para su uso en el cómputo fue el ábaco, y se cree que fue inventado en Babilonia alrededor del 2400 AC. Su estilo original de uso era con líneas dibujadas en la arena con guijarros. Los ábacos, de diseño más moderno, se siguen usando como herramientas de cálculo hoy en día. Esta fue la primera ayuda de cálculo conocida, precediendo a los métodos griegos por 2.000 años.
La primera idea registrada de usar la electrónica digital para la computación fue el documento de 1931 «The Use of Thyratrons for High Speed Automatic Counting of Physical Phenomena» de C. E. Wynn-Williams. El documento de Claude Shannon de 1938 «A Symbolic Analysis of Relay and Switching Circuits» introdujo entonces la idea de usar la electrónica para las operaciones algebraicas booleanas.
El concepto de un transistor de efecto de campo fue propuesto por Julius Edgar Lilienfeld en 1925. John Bardeen y Walter Brattain, mientras trabajaban bajo la dirección de William Shockley en los Bell Labs, construyeron el primer transistor en funcionamiento, el transistor de contacto de punto, en 1947. En 1953, la Universidad de Manchester construyó la primera computadora transistorizada, llamada la Computadora de Transistores. Sin embargo, los primeros transistores de unión eran dispositivos relativamente voluminosos y difíciles de fabricar en masa, lo que los limitaba a un número de aplicaciones especializadas. El transistor de efecto de campo de óxido metálico-silicio (MOSFET, o transistor MOS) fue inventado por Mohamed Atalla y Dawon Kahng en los laboratorios Bell en 1959. Fue el primer transistor verdaderamente compacto que pudo ser miniaturizado y producido en masa para una amplia gama de usos. El MOSFET hizo posible la construcción de chips de circuitos integrados de alta densidad, lo que llevó a lo que se conoce como la revolución de la informática o revolución de la microcomputadora.
Contenido