Las computadoras se han convertido en una parte útil y necesaria de la sociedad moderna. Se han utilizado en todo tipo de negocios, desde pedidos por correo y ventas minoristas, hasta comunicaciones como líneas telefónicas y acceso a Internet. Las computadoras son frecuentes en hospitales y supermercados, universidades y centros comerciales, restaurantes y agencias gubernamentales. En 1998, más del 40% de todas las familias de los Estados Unidos tenían una computadora personal.
El primer tipo de máquina utilizada para la informática fue el ábaco, que data posiblemente del 3000 a. C. en Babilonia. Todavía utilizado en la década de 1990, era un sistema simple de cuentas que se deslizaban sobre cables. La siguiente gran mejora fue realizada por Blaise Pascal (1623-1662) en 1642, cuando desarrolló una "máquina sumadora mecánica" que llamó Pascaline. En 1694, Gottfried Wilhem von Leibniz (1646-1716) hizo cambios en el Pascaline para que también pudiera multiplicarse. Un inglés llamado Charles Babbage (1791–1871) diseñó la primera computadora moderna. Denominado motor analítico, utilizaba tarjetas perforadas. El estadounidense Herman Hollerith (1860-1929) utilizó la técnica de la tarjeta perforada para fabricar una máquina que se utilizaría en la tabulación de los resultados del censo de EE. UU. En 1890. Fundó Tabulating Machine Co. en 1896, que se convirtió en International Business Machines (IBM) en 1924. El Dr. John V. Atanasoff y su asistente Clifford Berry desarrollaron los primeros circuitos electrónicos de computadora usando álgebra de Boole en 1940. En 1944, IBM terminó la computadora Mark I, que usaba señales electromagnéticas.
A partir de este punto, la historia de la informática estuvo marcada por "generaciones". La primera generación de computadoras contó con el uso de tubos de vacío, lo que contribuyó a su característico tamaño enorme. Otra limitación fue su lenguaje de programación. Este período duró aproximadamente desde finales de la década de 1940 hasta mediados de la de 1950. La segunda generación, aproximadamente de mediados a finales de la década de 1950 y principios de la de 1960, vio el uso del transistor en lugar de los grandes tubos de vacío. Esto llevó a máquinas más pequeñas, más eficientes y menos costosas. Las mejoras en el lenguaje de programación les dieron una mayor flexibilidad. Esta generación de hardware generó nuevos puestos de trabajo en la industria informática, como programadores y desarrolladores de software.
La tercera generación, de mediados de la década de 1960 a 1971, se basó en la innovación del semiconductor que reemplazó a los transistores, reduciendo el calor y también el tamaño de las computadoras. Otro nuevo desarrollo fue el uso del sistema operativo, que usaba un programa central para controlar el acceso a muchos otros programas. Además, dos profesores de Dartmouth desarrollaron un nuevo lenguaje de programación llamado BASIC. La cuarta generación de computadoras comenzó en 1971 y continuó hasta fines de la década de 1990 con el nuevo desarrollo de circuitos integrados a gran escala. Esto volvió a reducir el tamaño y el precio de las computadoras. En 1975, Micro Instrumentation and Telemetry Systems (MITS) introdujo la primera computadora personal, Altair 8800. IBM lanzó su versión en 1981 que utilizaba el sistema operativo de disco (DOS) desarrollado por Bill Gates de Microsoft, una de las empresas de software más destacadas. Apple sacó su computadora Macintosh en 1984. En 1986 había más de 30 millones de computadoras en los Estados Unidos.
Otras importantes empresas informáticas que comenzaron durante la década de 1980 fueron Compaq Computers, Sun Microsystems y Unisys Corporation. A finales de los 80, Texas Instruments y Motorola comercializaron nuevos microprocesadores. Windows, 1985, Windows 3.0, 1990, Windows NT, 1993, Windows 95 y Windows 98 de Microsoft se convirtieron en sistemas operativos extremadamente populares debido al uso de gráficos que los hacían fáciles de usar. En 1997, Office 97 de Microsoft para empresas registró ventas por un total de 78.8 millones de dólares. Otro software muy popular en la década de 1990 fueron los juegos de computadora, como "Riven: The Sequel to Myst", el más vendido en 1997.
Internet o World Wide Web surgieron gracias a los esfuerzos de Tim Berners-Lee. En 1989 ayudó a desarrollar un sistema de "hipervínculos" que podría usarse para obtener acceso a información relacionada, y en agosto de 1991, ese sistema se estaba usando en Internet, mejorando enormemente el intercambio de datos. El correo electrónico era una forma popular de intercambiar mensajes en Internet. El número de usuarios de Internet creció enormemente a lo largo de la década de 1990 y, en 1998, aproximadamente 5 millones de personas usaban la Web.
Las tendencias en la industria de las computadoras a fines de la década de 1990 incluyeron opciones de alquiler o arrendamiento de sistemas informáticos, numerosos modelos de computadoras personales en el rango de precios por debajo de los $ 1,000, computadoras portátiles portátiles y un cambio en la popularidad de las grandes computadoras comerciales de mainframe a un "cliente / server system "que usaba un conjunto de computadoras más pequeñas, más rápidas y más baratas. Otra innovación fue el "comercio electrónico", donde los consumidores podían navegar a través de catálogos en línea y luego hacer un pedido. Los bienes se compraban directamente en línea y la banca y las inversiones se controlaban a través de Internet. A fines de la década de 1990, se estimó que había más de 400,000 empresas en todo el mundo con sitios web.
A finales del siglo XX, la computadora personal se convirtió en parte de la vida diaria del ciudadano medio. Se esperaba que aumentara la demanda de trabajadores con conocimientos de informática a medida que la industria informática continuara desempeñando un papel importante en la fortaleza de la economía estadounidense.