1.2 Lenguajes-Programacion
1.2 Lenguajes-Programacion
1.2 Lenguajes-Programacion
En Informática, normalmente se utiliza el término programa para referirse a las dos cosas:
Los ordenadores siguen al pie de la letra las instrucciones de los programas ejecutables. Por tanto, los programas deben tener en
cuenta todos los posibles resultados de todas las instrucciones e incluir las instrucciones a seguir en cada caso, de manera que el
ordenador no se quede atascado en algún punto del programa. En el ejemplo citado de las raíces cuadradas, el programa tiene que
tener en cuenta que no se pueden calcular las raíces cuadradas de números negativos (sin recurrir a los números complejos) y no tiene
que pedirle al ordenador que lo haga porque seguramente se producirá un error y el programa se interrumpirá.
La importancia de la programación
La programación es importante porque permite automatizar todo tipo de tareas. La gráfica siguiente (copiada de un post de Bruno
Oliveira que ya no está disponible en Internet y que Jon Udell criticó y perfeccionó en enero de 2012) ilustra de forma humorística la
diferencia entre un informático y un no informático a la hora de enfrentarse con un trabajo repetitivo:
La posición vertical de cada lenguaje indica su fecha de creación. Posteriormente, cada lenguaje ha seguido su propia
evolución y las versiones actuales pueden ser incluso incompatibles con las versiones originales.
Las líneas que unen los lenguajes significan que un lenguaje ha influido en el diseo del otro, aunque el dibujo es una
simplificación y hay muchas más influencias que las indicadas, especialmente en los lenguajes más modernos que aúnan
características de muchos lenguajes anteriores.
Algunos de estos lenguajes han sido importantes por la cantidad de aplicaciones que se han escrito con ellos, mientras que
otros lo han sido por introducir ideas radicalmente nuevas que han influido en los lenguajes posteriores.
En este gráfico se podrían haber incluido otros lenguajes como Erlang, Haskell o Julia.
La mayoría de estos lenguajes siguen en uso y, en realidad, resulta cada vez más difícil que un lenguaje nuevo reemplace a los
anteriores, pues no solamente tiene que tener ventajas evidentes sobre los anteriores, sino que debe competir con todas las
herramientas auxiliares y colecciones de programas disponibles en los lenguajes antiguos.
GitHub, actualmente el repositorio público de software más importante, publica cada año el informe The State of the
Octoverse, en el que incluye información sobre los lenguajes de programación más utilizados en GitHub. En el informe de
2019, JavaScript es el lenguaje más popular, Python ha superado a Java situándose en segundo lugar, PHP se mantiene cuarto
y C# ha subido al quinto lugar superando a C++.
Google Trends permite comparar la frecuencia de búsqueda de varios términos, por ejemplo los cinco lenguajes de los años 90
que son los más populares en GitHub: JavaScript, Python, Java, PHP y C#.
Tipos de lenguajes de programación
Se pueden dar algunos criterios generales para distinguir unos lenguajes de otros, aunque cada vez más los lenguajes incluyen características
que antes distinguían unos lenguajes de otros y las frontera están menos definidas. Algunos de esos criterios son los siguientes:
En los lenguajes imperativos el programador escribe paso a paso las tareas a realizar. Entre ellos, están
o los lenguajes modulares, que permiten definir bloques de instrucciones y reutilizarlos para construir programas más
complejos (Algol, COBOL, Fortran, etc.).
o los lenguajes procedurales, que permiten definir procedimientos (rutinas, subrutinas, funciones, etc) y reutilizarlos
(BASIC, Pascal, C, etc.).
o los lenguajes orientados a objetos, en los que no se permite que cualquier porción del programa acceda a cualquier
dato, sino que se agrupan en clases todos los procedimientos que se pueden aplicar a un tipo de datos (Smalltalk, C+
+, Java,
o etc.).
En los lenguajes declarativos el programador no escribe los pasos a realizar, sino los pasos permitidos en cada situación y es el
ordenador el que busca la secuencia adecuada. Entre ellos están:
o los lenguajes funcionales, que utilizan como elemento básico las funciones y la recursividad (APL, Haskell, Erlang,
etc.).
o los lenguajes lógicos, que expresan las relaciones en términos lógicos y utilizan reglas de inferencia lógica para
conseguir el resultado (Prolog, Datalog, etc.).
Existen lenguajes puros que siguen a rajatabla los principios de uno de estos tipos, pero la mayoría de lenguajes permiten mezclar tipos
de programación diferentes.
No se puede afirmar la superioridad intrínseca de un tipo de lenguaje sobre otro, puesto que existen problemas que se abordan mejor
con un tipo de lenguaje que otro.
Por ejemplo, en los años finales del siglo XX y en los primeros del siglo XXI, con el aumento de potencia de los microprocesadores,
parecía que los lenguajes imperativos habían ganado la partida a los declarativos. Pero en los últimos años el crecimiento de la potencia
bruta de las CPU individuales se ha detenido y en su lugar lo que se multiplica es el número de núcleos en cada CPU y en esa situación
en la que lo más importante es poder "paralelizar" los programas (que se puedan ejecutar los programas en varios núcleos a la vez), los
lenguajes declarativos llevan ventaja, por lo que en los últimos años está aumentando el interés por esos lenguajes, sin que por
desgracia se hayan obtenido todavía resultados revolucionarios.
El programa de ordenador que es capaz de convertir el programa fuente escrito por el programador en el programa ejecutable que
ejecuta el ordenador puede realizar esa tarea de dos formas distintas:
en un lenguaje compilado, la tarea de conversión se realiza una sola vez. El compilador crea un fichero ejecutable a partir del
código fuente del programa y a partir de entonces el usuario ejecuta el fichero ejecutable tantas veces como quiera, sin tener
que volver a utilizar el código fuente.
en un lenguaje interpretado, la tarea de conversión se realiza cada vez que se quiere ejecutar el programa. El intérprete lee
una instrucción del programa fuente, la convierte en código ejecutable, la ejecuta y pasa a la siguiente. En este caso, el usuario
necesita tener el programa fuente para poder ejecutarlo.
En principio, cualquier lenguaje de programación puede ser compilado o interpretado, aunque por tradición hay lenguajes que suelen
utilizar compiladores y otros que suelen utilizar intérpretes.
Se solía decir que para un mismo programa fuente, la compilación produce programas ejecutables más rápidos que los programas
interpretados, pero la tendencia es a que esas diferencias se reduzcan.
También se debe tener en cuenta que las preferencias por compiladores o intérpretes pueden deberse a motivaciones no técnicas. Por
ejemplo, el programador de software comercial preferirá el uso de lenguajes compilados para poder comercializar el programa
ejecutable sin necesidad de hacer público el programa fuente, mientras que el programador de software libre no tiene problemas con
los lenguajes interpretados puesto que va a proporcionar también el código fuente.
En programación, los elementos que pueden almacenar información se llaman variables. Dependiendo del tipo de información
(números, letras, etc) que se almacena se usan variables de un tipo o de otro. Una característica que diferencia unos lenguajes de otros
es la rigidez o permisividad con respecto a los tipos de variables.
Los lenguajes tipificados (también llamados de tipado estático) son aquellos en los que una variable guarda siempre un mismo
tipo de datos. En algunos lenguajes tipificados se exige al programador que declare el tipo de cada variable y en otros lo
determina el compilador. En algunos lenguajes tipificados se permite la conversión entre tipos de variables y en otros no.
Los lenguajes no tipificados (también llamados de tipado dinámico) no requieren la declaración de tipo de las variables y una
misma variable puede almacenar valores de tipos distintos a lo largo de la ejecución del programa.
Algunas ventajas de los lenguajes tipificados es que permiten detectar errores de tipo (cuando un dato de un tipo se guarda en una
variable de otro tipo), que permiten a los compiladores optimizar mejor el código ejecutable y, en el caso de exigir la declaración de
tipo de las variables, que facilitan la comprensión de los programas.
Algunas ventajas de los lenguajes no tipificados es la mayor flexibilidad de los programas, y una serie de características que aunque no
se derivan necesariamente de la falta de tipificación suelen presentar los lenguajes no tipificados: simplicidad, mayor número de tipos
de datos, metaprogramación (introspección, eval, etc.).