Contenidos
Salario de informática
El ciclo de conferencias “Cultura y ciencias de la computación” pone de relieve ejemplos de buenas prácticas, retos y tendencias futuras en los ámbitos de la realidad aumentada, mixta y virtual, los sistemas híbridos, la tecnología 3D, la recopilación y gestión de datos, la integración de medios, el modelado, la visualización y la interacción. La conferencia se dirige a los empleados de las industrias culturales y creativas, a los científicos de la comunicación, a los actores culturales y artísticos, así como a los informáticos e ingenieros que realizan investigaciones y desarrollos sobre temas culturales.
Tum de informática
Departamento de Salud, Educación y Bienestar de los Estados Unidos, The Seeds of Artificial Intelligence: SUMEX-AIM (Washington: Government Printing Office, 1980), p. 6. (Imagen por cortesía del Departamento de Salud, Educación y Bienestar de los Estados Unidos).
Este curso se centra en un aspecto concreto de la historia de la informática: el uso del ordenador como instrumento científico. El ordenador digital electrónico se inventó para hacer ciencia, y sus aplicaciones abarcan desde la física hasta las matemáticas, pasando por la biología y las humanidades. ¿Cuál ha sido el impacto de la informática en la práctica de la ciencia? ¿Se diferencia el ordenador de otros instrumentos científicos? ¿Es la simulación por ordenador una forma válida de experimento científico? ¿Pueden considerarse los modelos informáticos como teorías sustitutivas? ¿Cómo cambia el ordenador la forma en que los científicos abordan las nociones de prueba, experiencia y descubrimiento? Todavía no se ha escrito una historia completa de la informática científica. Este seminario examina artículos científicos, memorias de participantes y obras de historiadores, sociólogos y antropólogos de la ciencia para ofrecer múltiples perspectivas sobre el uso de los ordenadores en diversos campos de las ciencias físicas, biológicas y sociales y las humanidades. Exploramos cómo el ordenador transformó la práctica científica y cómo la cultura de la informática se vio influida, a su vez, por las aplicaciones científicas.
Abreviatura de informática
Ordenadores y dispositivos informáticos de diferentes épocas – en el sentido de las agujas del reloj desde la parte superior izquierda:Primer ordenador de tubo de vacío (ENIAC)Ordenador central (IBM System 360)Ordenador de sobremesa (IBM ThinkCentre S50 con monitor)Superordenador (IBM Summit)Consola de videojuegos (Nintendo GameCube)Smartphone (LYF Water 2)
Un ordenador es una máquina electrónica digital que puede programarse para realizar secuencias de operaciones aritméticas o lógicas (cálculo) de forma automática. Los ordenadores modernos pueden realizar conjuntos genéricos de operaciones conocidos como programas. Estos programas permiten a los ordenadores realizar una amplia gama de tareas. Un sistema informático es un ordenador “completo” que incluye el hardware, el sistema operativo (software principal) y los equipos periféricos necesarios y utilizados para un funcionamiento “completo”. Este término también puede referirse a un grupo de ordenadores que están conectados y funcionan juntos, como una red de ordenadores o un clúster de ordenadores.
Una amplia gama de productos industriales y de consumo utilizan ordenadores como sistemas de control. Se incluyen dispositivos sencillos de propósito especial como los hornos microondas y los mandos a distancia, así como dispositivos de fábrica como los robots industriales y el diseño asistido por ordenador, además de dispositivos de propósito general como los ordenadores personales y los dispositivos móviles como los smartphones. Los ordenadores impulsan Internet, que conecta miles de millones de ordenadores y usuarios.
Evolución de la informática
Tras la caída de las punto com en 2001, el número de estudiantes que se matriculan en programas de informática disminuyó hasta 2007. Sin embargo, esa tendencia se está invirtiendo, según los nuevos datos de la encuesta anual Taulbee de la Computing Research Association (CRA). Las matriculaciones totales entre los estudiantes universitarios de informática de EE.UU. aumentaron un 10% en 2010, el tercer año consecutivo de aumentos, lo que indica que el descenso ha terminado. La encuesta documenta las tendencias en la matriculación de estudiantes, el empleo de los graduados y otros aspectos de la informática en Estados Unidos y Canadá.
“‘Hackers’ es, sin duda, profundamente dudoso en el departamento de informática. Aunque no cabe duda de que en la vida real ningún hacker podría hacer lo que hacen los personajes de esta película, no cabe duda de que lo que pueden hacer los hackers no sería una película muy entretenida”.
La popularidad de la informática como especialidad académica ha aumentado y disminuido a lo largo de los años. Las matriculaciones en Estados Unidos descendieron significativamente en 2004 y 2005, después de que los analistas predijeran que muchos trabajos de programación informática emigrarían a la India. Pero desde la crisis financiera de 2008, la informática ha recuperado su popularidad. El entusiasmo de estos días se centra en los programas interdisciplinarios que combinan la informática con la biología, la medicina y los negocios. “La disciplina es todavía lo suficientemente joven como para no estar anclada en la tradición. Se están produciendo cambios”, dice Brooks, que sigue siendo profesor en la UNC.