Tierra firme
Apariencia
(Redirigido desde «Tierra Firme»)
El término tierra firme puede referirse a:
- Tierra Firme, nombre que se le daba a Venezuela, al istmo de Panamá y parte de los territorios de Colombia en tiempos de la colonización europea.
- Tierra firme, terrenos en la Amazonia que se caracterizan por ser rara vez inundados.
- Tierra Firme, revista cultural publicada en España entre 1935 y 1936.
- Tierra firme, libro de la escritora española Matilde Asensi.
- Tierra firme, álbum del cantautor puertorriqueño Luis Fonsi.
- Tierra firme (2017), película del director Carlos Marqués-Marcet.
- En tierra firme, álbum de la banda española Ars Amandi.