Electricidad

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 110

Eletricidad

Electricidad

Los Rayos son un ejemplo de fenómeno eléctrico natural.

La electricidad (del griego ήλεκτρον élektron, cuyo significado es ‘ámbar’) es el


conjunto de fenómenos físicos relacionados con la presencia y flujo de cargas
eléctricas. Se manifiesta en una gran variedad de fenómenos como los rayos,
la electricidad estática, la inducción electromagnética o el flujo de corriente
eléctrica. Es una forma de energía tan versátil que tiene un sinnúmero de
aplicaciones, por ejemplo: transporte, climatización, iluminación y computación.

La electricidad se manifiesta mediante varios fenómenos y propiedades físicas:

Carga eléctrica: una propiedad de algunas partículas subatómicas, que


determina su interacción electromagnética. La materia eléctricamente cargada
produce y es influida por los campos electromagnéticos.

Corriente eléctrica: un flujo o desplazamiento de partículas cargadas


eléctricamente por un material conductor. Se mide en amperios.

Campo eléctrico: un tipo de campo electromagnético producido por una carga


eléctrica, incluso cuando no se está moviendo. El campo eléctrico produce una
fuerza en toda otra carga, menor cuanto mayor sea la distancia que separa las
dos cargas. Además, las cargas en movimiento producen campos magnéticos.

Potencial eléctrico: es la capacidad que tiene un campo eléctrico de


realizar trabajo. Se mide en voltios.

Magnetismo: la corriente eléctrica produce campos magnéticos, y los campos


magnéticos variables en el tiempo generan corriente eléctrica.

La electricidad se usa para generar:

luz, mediante lámparas

calor, aprovechando el efecto Joule


movimiento, mediante motores que transforman la energía eléctrica en energía
mecánica

señales, mediante sistemas electrónicos, compuestos de circuitos


eléctricos que incluyen componentes activos (tubos de
vacío, transistores, diodos y circuitos integrados) y
componentes pasivos como resistores, inductores y condensadores.

Historia de la electricidad

El fenómeno de la electricidad se ha estudiado desde la antigüedad, pero su


estudio científico comenzó en los siglos XVII y XVIII. A finales del siglo XIX, los
ingenieros lograron aprovecharla para uso doméstico e industrial. La rápida
expansión de la tecnología eléctrica la convirtió en la columna vertebral de la
sociedad industrial moderna.

Michael Faraday relacionó el magnetismo con la electricidad.

Mucho antes de que existiera algún conocimiento sobre la electricidad, la


humanidad era consciente de las descargas eléctricas producidas por peces
eléctricos. Textos del Antiguo Egipto que datan del 2750 a. C. se referían a
estos peces como «los tronadores del Nilo», descritos como los protectores de
los otros peces. Posteriormente, los peces eléctricos también fueron descritos
por los romanos, griegos, árabes, naturalistas y físicos. Autores antiguos
como Plinio el Viejo o Escribonio Largo, describieron el efecto adormecedor de
las descargas eléctricas producidas por peces eléctricos y rayas eléctricas.
Además, sabían que estas descargas podían transmitirse por materias
conductoras. Los pacientes de enfermedades como la gota y el dolor de
cabeza se trataban con peces eléctricos, con la esperanza de que la descarga
pudiera curarlos. La primera aproximación al estudio del rayo y a su relación
con la electricidad se atribuye a los árabes, que antes del siglo XV tenían una
palabra para rayo (raad) aplicado al rayo eléctrico.

En culturas antiguas del mediterráneo se sabía que ciertos objetos, como una
barra de ámbar, al frotarla con una lana o piel podía atraer objetos livianos
como plumas. Hacia el año 600 a. C., Tales de Mileto hizo una serie de
observaciones sobre electricidad estática. Concluyó que la fricción dotaba de
magnetismo al ámbar, al contrario que minerales como la magnetita, que no
necesitaban frotarse. Tales se equivocó al creer que esta atracción la producía
un campo magnético, aunque más tarde la ciencia probaría la relación entre el
magnetismo y la electricidad. Según una teoría controvertida,
los partos podrían haber conocido la electrodeposición, basándose en el
descubrimiento en 1936 de la Batería de Bagdad, similar a una celda voltaica,
aunque es dudoso que el artefacto fuera de naturaleza eléctrica.

En el siglo XVII, mientras la electricidad aún se consideraba poco más que un


espectáculo de salón, William Gilbert realizó un estudio cuidadoso de
electricidad y magnetismo. Diferenció el efecto producido por trozos
de magnetita, de la electricidad estática producida al frotar ámbar. Además,
acuñó el término neolatino electricus (que, a su vez, proviene
de ήλεκτρον [elektron], la palabra griega para ámbar) para referirse a la
propiedad de atraer pequeños objetos después de haberlos frotado. Esto
originó los términos eléctrico y electricidad, que aparecen por vez primera en
1646 en la publicación Pseudodoxia Epidemicade Thomas Browne.

En el siglo XVIII, se producen nuevas aproximaciones científicas al fenómeno,


por parte de investigadores sistemáticos como Henry Cavendish, Du Fay, van
Musschenbroek y Watson. Sus observaciones empiezan a dar sus frutos
con Galvani, Volta, Coulomb y Franklin, y, ya a comienzos del siglo XIX,
con Ampère, Faraday y Ohm. No obstante, el desarrollo de una teoría que
unificara la electricidad con el magnetismo como dos manifestaciones de un
mismo fenómeno llegó con la formulación de las ecuaciones de
Maxwell en 1865.

Los desarrollos tecnológicos que produjeron la Primera Revolución Industrial no


hicieron uso de la electricidad. Su primera aplicación práctica generalizada fue
el telégrafo eléctricode Samuel Morse (1833), que revolucionó
las telecomunicaciones. La generación industrial de electricidad comenzó a
fines del siglo XIX. cuando se extendió la iluminación eléctrica de las calles y
las casas. La creciente sucesión de aplicaciones de esta forma de energía hizo
de la electricidad una de las principales fuerzas motrices de la Segunda
Revolución Industrial. Fue un tiempo de grandes inventores, como Gramme,
Westinghouse, von Siemens o Alexander Graham Bell. Entre ellos
destacaron Nikola Tesla y Thomas Alva Edison,
Edison, cuya revolucionaria manera de
entender la relación entre investigación y mercado capitalista convirtió la
innovación tecnológica en una actividad industrial.

Conceptos

Carga eléctrica

Interacciones entre cargas de igual y distinta naturaleza.

La carga eléctrica es una propiedad de la materia que se manifiesta


mediante fuerzas de atracción y repulsión.
r La carga se origina en el átomo,
átomo que
está compuesto de partículas subatómicas
subatómica cargadas como el electrón y
el protón. La carga puede transferirse entre los cuerpos por contacto directo o
al pasar por un material conductor, generalmente metálico. El
término electricidad estática
tática se refiere a la presencia de carga en un cuerpo,
por lo general causado por dos materiales distintos que se frotan entre sí,
transfiriéndose carga uno al otro.

La presencia de carga da lugar a la fuerza electromagnética: una carga ejerce


una fuerza sobre las otras. Este efecto era conocido en la antigüedad, pero no
comprendido. Una bola liviana, suspendida de un hilo, podía cargarse al
contacto con una barra de vidrio cargada previamente
previamente por fricción con un tejido.
Se encontró que si una bola similar se cargaba con la misma barra de vidrio, se
repelían entre sí. A finales del siglo XVIII, Charles-Augustin Augustin de
Coulomb investigó este fenómeno. Dedujo que la carga se manifiesta de dos
formas opuestas. Este descubrimiento trajo el conocido axioma «objetos con la
misma polaridad se repelen y con diferente polaridad se atraen».

La fuerza actúa en las partículas cargadas entre sí, y además la carga tiene
tendencia a extenderse sobre una superficie conductora. La magnitud de la
fuerza electromagnética, ya sea atractiva o repulsiva, se expresa por la ley de
Coulomb,, que relaciona la fuerza con el producto de las cargas y tiene una
relación inversa al cuadrado de la distancia entre ellas. La fuerza
electromagnética es muy fuerte, la segunda después de la interacción nuclear
fuerte, con la diferencia que esa fuerza opera sobre todas las distancias. En
comparación con la débil fuerza gravitacional, la fuerza electromagnética que
aleja a dos electrones es 1042 veces más grande que la atracción gravitatoria
que los une.

Una carga puede expresarse como positiva o negativa. Las cargas de los
electrones y de los protones tienen signos contrarios. Por convención, la carga
que tiene electrones se asume negativa y la de los protones, positiva, una
costumbre que empezó con el trabajo de Benjamin Franklin. La cantidad de
carga se representa por el símbolo Q y se expresa en culombios. Todos los
electrones tienen la misma carga, aproximadamente de -
1.6022×10−19 culombios. El protón tiene una carga igual pero de signo
opuesto +1.6022×10−19coulombios. La carga no solo está presente en
la materia, sino también en la antimateria: cada antipartícula tiene una carga
igual y opuesta a su correspondiente partícula.

La carga puede medirse de diferentes maneras. Un instrumento muy antiguo es


el electroscopio, que aún se usa para demostraciones en las aulas, aunque
ahora está superado por el electrómetro electrónico.

Corriente eléctrica

Un arco eléctrico permite una demostración de la energía de la corriente


eléctrica.

Se conoce como corriente eléctrica al movimiento de cargas eléctricas. La


corriente puede estar producida por cualquier partícula cargada
eléctricamente en movimiento. Lo más frecuente es que sean electrones, pero
cualquier otra carga en movimiento se puede definir como corriente. Según
el Sistema Internacional, la intensidad de una corriente eléctrica se mide
en amperios, cuyo símbolo es A.
Históricamente, la corriente eléctrica se definió como un flujoflujo de cargas
positivas y se fijó como sentido convencional de circulación de la corriente el
flujo de cargas desde el polo positivo al negativo. Más adelante se observó
que, en los metales, los portadores de carga son electrones, con carga
negativa, y que se desplazan en sentido contrario al convencional. Lo cierto es
que, dependiendo de las condiciones, una corriente eléctrica puede consistir en
un flujo de partículas cargadas en una dirección, o incluso simultáneamente en
ambas direcciones. La convención positivo-negativo
positivo negativo se usa normalmente para
simplificar esta situación.

El proceso por el cual la corriente eléctrica circula por un material se


llama conducción eléctrica.. Su naturaleza varía, dependiendo
dependiendo de las partículas
cargadas y el material por el cual están circulando. Ejemplos de corrientes
eléctricas son la conducción metálica, donde los electrones recorren
un conductor eléctrico,, como un metal; y la electrólisis,, donde
los iones (átomos cargados) fluyen a través de líquidos. Mientras que las
partículas pueden moverse muy despacio, algunas veces con una velocidad
media de deriva de solo fracciones de milímetro por segundo,52
segundo, el campo
eléctrico que las controla se propaga cercano a la velocidad de la luz luz,
permitiendo que las señales eléctricas se transmitan rápidamente por los
cables.

La corriente produce muchos efectos visibles, que han hecho que su presencia
se reconozca a lo largo de la historia. En
1800, Nicholson y Carlisle descubrieron que el agua podía descomponerse por
la corriente de una pila voltaica, en un proceso que se conoce como electrólisis
electrólisis.
En 1833, Michael Faraday amplió este trabajo. En 1840, James ames Prescott
Joule descubrió que la corriente a través de una resistencia eléctrica aumenta
la temperatura, fenómeno que en la actualidad se denomina Efecto Joule
Joule.

Campo eléctrico
Líneas de campo saliendo de una carga positiva hacia un conductor plano.

El concepto de campo eléctrico fue introducido por Michael Faraday.. Un campo


eléctrico se crea por un cuerpo cargado en el espacio que lo rodea, y produce
una fuerza
erza que ejerce sobre otras cargas ubicadas en el campo. Un campo
eléctrico actúa entre dos cargas de modo muy parecido al campo
gravitatorio que actúa sobre dos masas. Como él, se extiende hasta el infinito y
su valor es inversamente proporcional al cuadrado de la distancia. Sin
embargo, hay una diferencia importante: mientras la gravedad siempre actúa
como atracción, el campo eléctrico puede producir atracción o repulsión. Si un
cuerpo grande como un planeta no tiene carga neta, el campo eléctrico a una
distancia determinada es cero. Por ello, la gravedad es la fuerza dominante en
el universo, a pesar de serr mucho más débil.
débil

Un campo eléctrico varía en el espacio, y su intensidad en cualquier punto se


define como la fuerza (por unidad de carga) que percibiría una carga si
estuviera ubicada en ese punto. La carga de prueba debe de ser insignificante,
para evitar que su propio campo afecte el campo principal y también debe ser
estacionaria para evitar el efecto de los campos magnéticos.. Como el campo
eléctrico se define en términos de fuerza, y una fuerza es un vector, entonces
el campo eléctrico también es un vector, con magnitud y dirección.
Específicamente, es un campo vectorial.
vectorial

El motor eléctrico aprovecha un efecto importante del electromagnetismo: una


corriente a través de un campo magnético experimenta una fuerza en el mismo
ángulo del
el campo y la corriente.

Potencial eléctrico

El concepto de potencial eléctrico tiene mucha relación con el de campo


eléctrico. Una carga pequeña ubicada en un campo eléctrico experimenta una
fuerza, y para llevar esa carga a ese punto en contra de la fuerza
fuerza necesita
hacer un trabajo.. El potencial eléctrico en cualquier punto se define como la
energía requerida para mover una carga de ensayo ubicada en el infinito a e ese
punto. Por lo general se mide en voltios,, donde un voltio es el potencial que
necesita un julio de trabajo para atraer
atr una carga de un culombio desde el
infinito. Esta definición formal de potencial tiene pocas aplicaciones prácticas.
Un concepto más útil es el de diferencia de potencial,, que se define como la
energía requerida para mover una carga entre dos puntos específicos. El
campo eléctrico tiene la propiedad especial de ser conservativo,, es decir que
no importa la trayectoria realizada por la carga de prueba; todas las trayectorias
entre dos puntos específicos consumen la misma energía, y además con un
únicoo valor de diferencia de potencial.

Electromagnetismo

Se denomina electromagnetismo a la teoría física que unifica los fenómenos


eléctricos y magnéticos. Sus fundamentos son obra de Faraday, pero fueron
formulados por primera vez de modo completo por Maxwell,
Max mediante cuatro
ecuaciones diferenciales vectoriales, conocidas como ecuaciones de Maxwell
Maxwell.
Relacionan el campo eléctrico, el campo magnético y sus respectivas
respectivas fuentes
materiales: densidad de carga eléctrica
eléctrica, corriente eléctrica, desplazamiento
eléctrico y corriente
nte de desplazamiento.
desplazamiento

A principios del siglo XIX, Ørsted encontró evidencia empírica de que los
fenómenos magnéticos y eléctricos estaban relacionados. A partir de esa base,
en 1861 Maxwell unificó los trabajos
de Ampère, Sturgeon, Henry,
Henry Ohm y Faraday,, en un conjunto de ecuaciones
que describían ambos fenómenos como uno solo, el fenómeno
electromagnético.

Se trata de una teoría de campos.


campos. Sus explicaciones y predicciones se basan
en magnitudes físicas vectoriales,
vectoriales, que dependen de la posición en el espacio y
del tiempo. El electromagnetismo describe los fenómenos físicos
macroscópicos en los que intervienen cargas eléctricas en reposo y en
movimiento, usando para ello campos eléctricos y magnéticos y sus efectos
sobre la materia.
Un circuito eléctrico básico. La fuente de tensión V en la izquierda proporciona
una corriente I al circuito, entregando energía eléctrica a la resistencia R. De la
resistencia, la corriente regresa a la fuente, completando el circuito.

Circuitos eléctricos

Un circuito
o eléctrico es una interconexión de componentes eléctricos tales que
la carga eléctrica fluye en un camino cerrado, por lo general para ejecutar
alguna tarea útil.

Los componentes en un circuito eléctrico pueden ser muy variados, puede


tener elementos
como resistores, capacitores,
capacitores interruptores, transformadores y electrónicos.
electrónicos Los
circuitos electrónicos contienen
contien componentes activos
activos,
normalmente semiconductores
semiconductores, exhibiendo un comportamiento no lineal,lineal que
requiere análisis complejos. Los componentes eléctricos más simples son
los pasivos y lineales.

El comportamiento de los circuitos eléctricos que contienen solamente


resistencias y fuentes electromotrices de corriente continua está
está gobernado por
las leyes de Kirchhoff.. Para estudiarlo, el circuito se descompone en mallas
eléctricas,, estableciendo un sistema de ecuaciones lineales cuya resoluci
resolución
brinda los valores de los voltajes y corrientes que circulan entre sus diferentes
partes.

La resolución de circuitos de corriente alterna requiere la ampliación del


concepto de resistencia eléctrica, ahora ampliado por el de impedancia para
incluir los comportamientos de bobinas y condensadores.. La resolución de
estos circuitos puede hacerse con generalizaciones de las leyes de Kirchoff,
pero requiere usualmente métodos matemáticos avanzados, como el
de Transformada de Laplace,
Laplace, para describir los
comportamientos transitorios y estacionarios de los mismos.

Propiedades eléctricas de los materiales

Configuración electrónica del átomo de cobre.. Sus propiedades conductoras se


deben a la facilidad de circulación que tiene su electrón más
más exterior (4s).
Origen microscópico

La posibilidad de transmitir corriente eléctrica en los materiales depende de la


estructura e interacción de los átomos que los componen. Los átomos están
constituidos por partículas cargadas positivamente (los protones),
negativamente (los electrones) y neutras (los neutrones). La conducción
eléctrica en los conductores, semiconductores, y aislantes, se debe a los
electrones de la órbita exterior o portadores de carga, ya que tanto los
neutrones interiores como los protones de los núcleos atómicos no pueden
desplazarse con facilidad. Los materiales conductores por excelencia
son metales que normalmente tienen un único electrón en la última capa
electrónica, como el cobre. Estos electrones pueden pasar con facilidad a
átomos contiguos, constituyendo los electrones libres responsables del flujo de
corriente eléctrica.

En todos los materiales sometidos a campos eléctricos se modifican, en mayor


o menor grado, las distribuciones espaciales relativas de las cargas negativas y
positivas. Este fenómeno se denomina polarización eléctrica y es más notorio
en los aislantes eléctricos debido a que gracias a este fenómeno se impide
liberar cargas, y por lo tanto no conducen, característica principal de estos
materiales.

Conductividad y resistividad.

Conductor eléctrico de cobre

La conductividad eléctrica es la propiedad de los materiales que cuantifica la


facilidad con que las cargas pueden moverse cuando un material es sometido a
un campo eléctrico. La resistividad es una magnitud inversa a la conductividad,
aludiendo al grado de dificultad que encuentran los electrones en sus
desplazamientos, dando una idea de lo buen o mal conductor que es. Un valor
alto de resistividad indica que el material es mal conductor mientras que uno
bajo indicará que es un buen conductor. Generalmente la resistividad de los
metales aumenta con la temperatura, mientras que la de los semiconductores
disminuye ante el aumento de la temperatura.

Los materiales se clasifican según su conductividad eléctrica o resistividad en


conductores, dieléctricos, semiconductores y superconductores.

Conductores eléctricos. Son los materiales que, puestos en contacto con un


cuerpo cargado de electricidad, transmiten esta a todos los puntos de su
superficie. Los mejores conductores eléctricos son los metales y sus
aleaciones. Existen otros materiales, no metálicos, que también poseen la
propiedad de conducir la electricidad, como son el grafito, las soluciones
salinas (por ejemplo, el agua de mar) y cualquier material en estado de plasma.
Para el transporte de la energía eléctrica, así como para cualquier instalación
de uso doméstico o industrial, el metal más empleado es el cobre en forma de
cables de uno o varios hilos. Alternativamente se emplea el aluminio, metal que
si bien tiene una conductividad eléctrica del orden del 60 % de la del cobre es,
sin embargo, un material mucho menos denso, lo que favorece su empleo en
líneas de transmisión de energía eléctrica en las redes de alta tensión. Para
aplicaciones especiales se utiliza como conductor el oro.

Dieléctricos. Son los materiales que no conducen la electricidad, por lo que


pueden ser utilizados como aislantes. Algunos ejemplos de este tipo de
materiales
son vidrio, cerámica, plásticos, goma, mica, cera, papel, madera seca, porcelan
a, algunas grasas para uso industrial y electrónico y la baquelita. Aunque no
existen materiales absolutamente aislantes o conductores, sino mejores o
peores conductores, son materiales muy utilizados para
evitar cortocircuitos (forrando con ellos los conductores eléctricos, para
mantener alejadas del usuario determinadas partes de los sistemas eléctricos
que, de tocarse accidentalmente cuando se encuentran en tensión, pueden
producir una descarga) y para confeccionar aisladores (elementos utilizados en
las redes de distribución eléctrica para fijar los conductores a sus soportes sin
que haya contacto eléctrico). Algunos materiales, como el aire o el agua, son
aislantes bajo ciertas condiciones pero no para otras. El aire, por ejemplo, es
aislante a temperatura ambiente y seco pero, bajo condiciones de frecuencia
de la señal y potencia relativamente bajas, puede convertirse en conductor.

Producción y usos de la electricidad

Generación y transmisión
La energía eólica está tomando importancia en muchos países.

Hasta la invención de la pila voltaica en el siglo XVIII (Volta, 1800) no se tenía


una fuente viable de electricidad. La pila voltaica (y sus descendientes
modernos, la pila eléctrica y la batería eléctrica), almacenaba energía
químicamente y la entregaba según la demanda en forma de energía eléctrica.
La batería es una fuente común muy versátil que se usa para muchas
aplicaciones, pero su almacenamiento de energía es limitado, y una vez
descargado debe ser recargada (o, en el caso de la pila, reemplazada). Para
una demanda eléctrica mucho más grande la energía debe generarse y
transmitirse continuamente por líneas de transmisión conductoras.

Por lo general, la energía eléctrica se genera mediante generadores


electromecánicos que son dispositivos que utilizan el movimiento para
mantener una diferencia de potencial eléctrica entre dos puntos. Es decir que
transforman la energía mecánica en eléctrica. Esta transformación se consigue
por la acción de un campo magnético sobre los conductores eléctricos. Si se
produce mecánicamente un movimiento relativo entre los conductores y el
campo, se generará una fuerza electromotriz (F.E.M.). Este sistema está
basado en la ley de Faraday. Para lograr el movimiento se utiliza el del aire
(eólica), agua (hidráulica), vapor u otros gases (térmica). La moderna turbina
de vapor inventada por Charles Algernon Parsons en 1884 genera cerca del
80 % de la energía eléctrica en el mundo usando una gran variedad de fuentes
de energía.

Otro dispositivo que genera electricidad es la célula fotovoltaica, y lo hace


directamente a partir de la radiación solar mediante un
dispositivo semiconductor.
Transmisión de energía eléctrica en Alta Tensión

Los conductores de electricidad ofrecen siempre una resistencia al paso de


esta, por pequeña que sea, de modo que en el transporte se pierde carga
eléctrica; a mayor distancia, mayor pérdida. Un aumento de tensión significa
una disminución de la intensidad que circula por la línea, para transportar la
misma potencia, y por tanto, las pérdidas por calentamiento de los conductores
y por efectos electromagnéticos y, en consecuencia, menor pérdida energética.
En consecuencia pueden utilizarse secciones menores de los conductores que
la transportan, por eso, para llevar electricidad a grandes distancias, se debe
hacer en la llamada Alta Tensión. Por el contrario en el uso corriente se debe
emplear una tensión más reducida (normalmente entre 110 y 240 V) y eso
implica cambios (tranformaciones) de tensión. La invención a finales del siglo
XIX del transformador permitió transmitir la energía eléctrica de una forma más
eficiente. La transmisión eléctrica eficiente hizo posible generar electricidad en
plantas generadoras, para después trasportarla a largas distancias, donde
fuera necesaria.

Debido a que la energía eléctrica no puede ser almacenada fácilmente para


atender la demanda a una escala nacional, la mayoría de las veces se produce
la misma cantidad que la que se demanda. Esto requiere de una bolsa eléctrica
que hace predicciones de la demanda eléctrica, y mantiene una coordinación
constante con las plantas generadoras. Se mantiene una cierta reserva de
capacidad de generación en reserva para soportar cualquier anomalía en la
red.

Aplicaciones de la electricidad

La electricidad tiene un sinfín de aplicaciones tanto para uso doméstico,


industrial, medicinal y en el transporte. Solo para citar se puede mencionar a
la iluminación y alumbrado, electrodomésticos, producción de
calor, electrónica, robótica, telecomunicaciones, señales
luminosas, climatización, máquinas
frigoríficas, electrosoldadura, electroimanes, electroquímica, electroválvulas.
También se aplica la inducción electromagnética para la construcción
de motores movidos por energía eléctrica, que permiten el funcionamiento de
innumerables dispositivos.

Electricidad en la naturaleza

Mundo inorgánico

Descargas eléctricas atmosféricas

El fenómeno eléctrico más común del mundo inorgánico son las descargas
eléctricas atmosféricas denominadas rayos y relámpagos. Debido al
rozamiento de las partículas de agua o hielo con el aire, se produce la creciente
separación de cargas eléctricas positivas y negativas en las nubes, separación
que genera campos eléctricos. Cuando el campo eléctrico resultante supera
la rigidez dieléctrica del medio, se produce una descarga entre dos partes de
una nube, entre dos nubes diferentes o entre la parte inferior de una nube y
tierra. Esta descarga ioniza el aire por calentamiento y excita transiciones
electrónicas moleculares. La brusca dilatación del aire genera el trueno,
mientras que el decaimiento de los electrones a sus niveles de equilibrio
genera radiación electromagnética, es decir, luz.

Campo magnético terrestre

Aurora boreal.

Aunque no se puede verificar experimentalmente, la existencia del campo


magnético terrestre se debe casi seguramente a la circulación de cargas en
el núcleo externo líquido de la Tierra. La hipótesis de su origen en materiales
con magnetización permanente, como el hierro, parece desmentida por la
constatación de las inversiones periódicas de su sentido en el transcurso de
las eras geológicas, donde el polo norte magnético es remplazado por el sur y
viceversa. Medido en tiempos humanos, sin embargo, los polos magnéticos
son estables, lo que permite su uso, mediante el antiguo invento chino de
la brújula, para la orientación en el mar y en la tierra.
El campo magnético terrestre desvía las partículas cargadas provenientes
del Sol (viento solar). Cuando esas partículas chocan con los átomos y
moléculas de oxígeno y nitrógeno de la magnetosfera, se produce un efecto
fotoeléctrico mediante el cual parte de la energía de la colisión excita los
átomos a niveles de energía tales que cuando dejan de estar excitados
devuelven esa energía en forma de luz visible. Este fenómeno puede
observarse a simple vista en las cercanías de los polos, en las auroras polares.

Mundo orgánico

Uso biológico

El bioelectromagnetismo estudia el fenómeno consistente en la producción


de campos electromagnéticos producidos por la materia
viva (células, tejidos u organismos). Los ejemplos de este fenómeno incluyen
el potencial eléctrico de las membranas celulares y las corrientes eléctricas que
fluyen en nervios y músculos como consecuencia de su potencial de acción.77

Algunos organismos, como los tiburones, tienen la capacidad de detectar y


responder a los cambios de los campos eléctricos, una habilidad conocida
como electrorrecepción. Mientras que otros, denominados electrogénicos, son
capaces de producir grandes descargas eléctricas con fines defensivos u
ofensivos. Algunos peces, como las anguilas y las rayas eléctricas pueden
generar voltajes de hasta 2000 V y corrientes superiores a 1 A. El potencial de
acción también es responsable de la coordinación de actividades en ciertas
plantas.

Ingeniería eléctrica

Ingeniería eléctrica

Los ingenieros eléctricos diseñan sistemas eléctricos


de potencia y tecnologías que usan energía eléctrica.

Áreas del Física, matemáticas, electrónica, ciencia


saber de materiales

Electricidad (redes eléctricasy máquinas


eléctricas)
Sistemas eléctricos de potencia*
Campo de Electrónica*
aplicación Automática*
Procesamiento de señales*
Telecomunicaciones e informática*

(*) Solo en algunos lugares

Reconocida
Todo el mundo
en

La ingeniería eléctrica es el campo de la ingeniería que se ocupa del estudio y


la aplicación de la electricidad, la electrónica y el electromagnetismo. Aplica
conocimientos de ciencias como la física y las matemáticas para diseñar
sistemas y equipos que
permiten generar, transportar, distribuir y utilizar la energía eléctrica.

Dicha área de la ingeniería es reconocida como carrera profesional en todo


el mundo y constituye una de las áreas fundamentales de la ingeniería desde
el siglo XIX con la comercialización del telégrafo eléctrico y la
generación industrial de energía eléctrica. Dada su evolución en el tiempo, este
campo ahora abarca una serie de disciplinas que incluyen la electrotecnia,
la electrónica, los sistemas de control, el procesamiento de señales y
las telecomunicaciones. Dependiendo del lugar y del contexto en que se use, el
término ingeniería eléctrica puede o no abarcar a la ingeniería electrónica, la
que surge como una subdivisión de la misma y ha tenido una importante
evolución desde la invención del tubo o válvula termoiónica y la radio. Cuando
se hace esta distinción, generalmente se considera a la ingeniería eléctrica
como aquella rama que aborda los problemas asociados a sistemas eléctricos
de gran escala o potencia, como los sistemas eléctricos de transmisión de
energía y de control de motores, etc. mientras que la ingeniería electrónica se
considera que abarca sistemas de baja potencia, denominados también
corrientes débiles, sistemas de telecomunicaciones, control y procesamiento de
señales constituidos por semiconductores y circuitos integrados.
Historia

La electricidad ha sido materia de interés científico desde principios del siglo


XVII. El primer ingeniero electricista fue probablemente William Gilbert quien
diseñó el "versorium", un aparato que detectaba la presencia de objetos
estáticamente cargado. Él también fue el primero en marcar una clara distinción
entre electricidad magnética y estática y se le atribuye la creación del
término electricidad. En 1775 la experimentación científica de Alessandro
Volta resultó en la creación del electróforo, un aparato que producía carga
eléctrica estática, y por el 1800 Volta inventó la pila voltáica, el predecesor de
la batería eléctrica.

Siglo XIX

Thomas Edison construyó la primera red de energía eléctrica del mundo.

Sin embargo, no fue hasta el siglo XIX que las investigaciones dentro de la
ingeniería eléctrica empezaron a intensificarse. Algunos de los desarrollos
notables en éste siglo incluyen el trabajo de Georg Ohm, quien en 1827 midió
la relación entre corriente eléctrica y la diferencia de potenciales en un
conductor, Michael Faraday el que descubrió la inducción
electromagnética en 1831, y James Clerk Maxwell, quien en 1873 publicó la
teoría unificada de la electricidad y magnetismo en su tratado Electricity and
Magnetism
Nikola Tesla hizo posibles las redes de transmisión de energía eléctrica de
larga distancia.

Durante estos años, el estudio de la electricidad era ampliamente considerado


como una rama de la física. No fue hasta finales del siglo XIX que las
universidades empezaron a ofrecer carreras en ingeniería eléctrica.
La Universidad Técnica de Darmstadt tuvo la primera cátedra y facultad de
ingeniería eléctrica en 1882. En 1883 la Universidad Técnica de Darmstadt y
la Universidad Cornell empezaron a dar los primeros cursos de ingeniería
eléctrica, y en 1885 el University College de Londres fundó la primera cátedra
de ingeniería eléctrica en el Reino Unido. La Universidad de Misuri estableció el
primer departamento de ingeniería eléctrica en los Estados Unidos en 1886.

Durante este período, el trabajo relacionado con la ingeniería eléctrica se


incrementó rápidamente. En 1882, Thomas Edison encendió la primera red de
energía eléctrica de gran escala que proveía 110 volts de corriente continua a
59 clientes en el bajo Manhattan. En 1887, Nikola Tesla llenó un número de
patentes sobre una forma de distribución de energía eléctrica conocida
como corriente alterna. En los años siguiente una amarga rivalidad entre
Edison y Tesla, conocida como "La guerra de las corrientes", tomó lugar sobre
el mejor método de distribución. Eventualmente, la corriente alterna remplazó a
la corriente continua, mientras se expandía y se mejoraba la eficiencia de las
redes de distribución energética.

Los desarrollos más modernos

Durante el desarrollo de la radio, muchos científicos e inventores contribuyeron


a la tecnología de la radio y la electrónica. En sus experimentos de la física
clásica de 1888, Heinrich Hertz transmite ondas de radio con un transmisor de
chispa , y los detectó mediante el uso de dispositivos eléctricos sencillos. El
trabajo matemático de James Clerk Maxwell en 1850 demostró la posibilidad de
las ondas de radio, pero Hertz fue el primero en demostrar su existencia. En
1895, Nikola Tesla fue capaz de detectar señales de radio desde
el transmisor en su laboratorio en la ciudad de Nueva York a unas 50 millas de
distancia, en West Point, Nueva York (unos 80 kilómetros).

En 1897, Karl Ferdinand Braun introdujo el tubo de rayos catódicos como parte
de un osciloscopio, una tecnología que sería crucial para el desarrollo de
la televisión. John Fleminginventó el primer tubo de radio, el diodo, en 1904.
Dos años más tarde, Robert von Lieben y Lee De Forest desarrollaron
independientemente el tubo amplificador, denominado triodo. En
1895, Guglielmo Marconi promovieron el arte de métodos inalámbricos
hertzianas. Al principio, envió señales inalámbricas a una distancia de una milla
y media. En diciembre de 1901, envió ondas inalámbricas que no fueron
afectadas por la curvatura de la Tierra. Marconi luego transmite las señales
inalámbricas a través del Atlántico entre Poldhu, Cornualles, y San Juan de
Terranova, una distancia de 2100 millas (3400 kilómetros). En 1920 Albert Hull
desarrolló el magnetrón que eventualmente conduce al desarrollo del horno de
microondas en 1946 por Percy Spencer. En 1934, el ejército británico comenzó
a dar pasos hacia el radar (que también utiliza el magnetrón) bajo la dirección
del Dr. Wimperis, que culminó en la operación de la primera estación de radar
en Bawdsey en agosto de 1936.

En 1941 Konrad Zuse presentó el Z3, primera computadora completamente


funcional y programable del mundo a través de piezas electromecánicas. En
1943 Tommy Flowersdiseñó y construyó el Colossus, primer equipo
completamente funcional, electrónico, digital y programable del mundo. En
1946, el ENIAC (Electronic Numerical Integrator and Computer) de John
Presper Eckert y John Mauchly seguido, del inicio de la era de la computación .
El rendimiento de la aritmética de estas máquinas permite a los ingenieros
desarrollar completamente nuevas tecnologías y lograr nuevos objetivos, entre
ellos el programa Apolo, que culminó con astronautas en la Luna.

Un gran avance en la electrónica completa - transistores de estado sólido

La invención del transistor a finales de 1947 por William B. Shockley, John


Bardeen y Walter Brattain de los Laboratorios Bell abrió la puerta para los
dispositivos más compactos y llevó al desarrollo del circuito integrado en 1958
por Jack Kilby y de forma independiente en 1959 por Robert Noyce. A partir de
1968, Ted Hoff y un equipo de la Intel Corporationinventó el primer comercial
de microprocesador, que anunciaba el ordenador personal. El Intel 4004 fue un
procesador de cuatro bits lanzado en 1971, pero en 1973, el Intel 8080, un
procesador de ocho bits, hizo posible el primer ordenador personal, el Altair
8800.

Áreas de conocimiento
La ingeniería eléctrica aplica conocimientos de ciencias como la física y
la matemática.

Considerando que esta rama de la ingeniería resulta más abstracta que otras,
la formación de un ingeniero electricista requiere una base matemática que
permita la abstracción y entendimiento de los fenómenos electromagnéticos.

Tras este tipo de análisis ha sido posible comprender esta rama de la física,
mediante un conjunto de ecuaciones y leyes que gobiernan los fenómenos
eléctricos y magnéticos. Por ejemplo, el desarrollo de las leyes de
Maxwell permite describir los fenómenos electromagnéticos y forman la base
de la teoría del electromagnetismo. En el estudio de la corriente eléctrica, la
base teórica parte de la ley de Ohm y las leyes de Kirchhoff.

Además se requieren conocimientos generales de mecánica y de ciencia de


materiales, para la utilización adecuada de materiales adecuados para cada
aplicación.

Un ingeniero electricista debe tener conocimientos básicos de otras áreas


afines, pues muchos problemas que se presentan en ingeniería son complejos
e interdisciplinares.

Áreas de desempeño

• Producción de energía eléctrica: diseñar, instalar y mantener sistemas de


producción de energía eléctrica con base en fuentes energéticas hidráulicas,
térmicas y no convencionales.

• Transporte de energía eléctrica: diseñar, instalar y mantener sistemas de


transformación, transmisión y distribución de energía eléctrica.

• Análisis de sistemas eléctricos: evaluar y desarrollar técnicas de análisis con


base en modelos de los sistemas y equipos que intervienen en la producción,
consumo, transporte y legislación del uso de la Energía Eléctrica.

• Control, protección y medición de sistemas eléctricos: diseñar, aplicar,


evaluar, mantener e instalar los sistemas y equipos que intervienen el control,
protección y medición de la producción, consumo, transporte y legislación del
uso de la energía eléctrica.

• Consumo (carga, demanda) y comercialización de energía eléctrica:


caracterizar, modelar, simular, analizar y diseñar el comportamiento de los
procesos de consumo de energía eléctrica y su comercialización.

Historia de la electricidad
Un fragmento de ámbar como el que pudo utilizar Tales de Mileto en su
experimentación del efecto triboeléctrico. El nombre en griegode este material
(ελεκτρον, elektron) se utilizó para nombrar al fenómeno y la ciencia que lo
estudia, a partir del libro De Magnetes, Magneticisque Corporibus, et de Magno
Magnete Tellure, de William Gilbert (1600).

Grabado mostrando la teoría del galvanismo según los experimentos de Luigi


Galvani. De viribus electricitatis in motu musculari commentarius, 1792.

La historia de la electricidad se refiere al estudio y uso humano de


la electricidad, al descubrimiento de sus leyes como fenómeno físico y a la
invención de artefactos para su uso práctico.

El fenómeno en sí, fuera de su relación con el observador humano, no


tiene historia; y si se la considerase como parte de la historia natural, tendría
tanta como el tiempo, el espacio, la materia y la energía. Como también se
denomina la electricidad a la rama de la ciencia que estudia el fenómeno y a la
rama de la tecnología que lo aplica, la historia de la electricidad es la rama de
la historia de la ciencia y de la historia de la tecnología que se ocupa de su
surgimiento y evolución.

Uno de sus hitos iniciales puede situarse hacia el año 600 a. C., cuando
el filósofo griego Tales de Mileto observó que frotando una varilla de ámbar con
lana o piel, se obtenían pequeñas cargas (efecto triboeléctrico) que atraían
pequeños objetos, y frotando mucho tiempo podía causar la aparición de una
chispa. Cerca de la antigua ciudad griega de Magnesia se encontraban las
denominadas piedras de Magnesia, que incluían magnetita. Los antiguos
griegos observaron que los trozos de este material se atraían entre sí, y
también a pequeños objetos de hierro. Las palabras magneto (equivalente en
español a imán) y magnetismo derivan de ese topónimo.

La electricidad evolucionó históricamente desde la simple percepción del


fenómeno, a su tratamiento científico, que no se haría sistemático hasta el siglo
XVIII. Se registraron a lo largo de la Edad Antigua y Media otras observaciones
aisladas y simples especulaciones, así como intuiciones médicas (uso
de peces eléctricos en enfermedades como la gota y el dolor de cabeza)
referidas por autores como Plinio el Viejo y Escribonio Largo,1 u objetos
arqueológicos de interpretación discutible, como la Batería de Bagdad,2 un
objeto encontrado en Irak en 1938, fechado alrededor de 250 a. C., que se
asemeja a una celda electroquímica. No se han encontrado documentos que
evidencien su utilización, aunque hay otras descripciones anacrónicas de
dispositivos eléctricos en muros egipcios y escritos antiguos.

Esas especulaciones y registros fragmentarios son el tratamiento casi exclusivo


(con la notable excepción del uso del magnetismo para la brújula) que hay
desde la Antigüedad hasta la Revolución científica del siglo XVII; aunque
todavía entonces pasa a ser poco más que un espectáculo para exhibir en los
salones. Las primeras aportaciones que pueden entenderse como
aproximaciones sucesivas al fenómeno eléctrico fueron realizadas por
investigadores sistemáticos como William Gilbert, Otto von Guericke, Du
Fay, Pieter van Musschenbroek (botella de Leyden) o William Watson. Las
observaciones sometidas a método científico empiezan a dar sus frutos
con Luigi Galvani, Alessandro Volta, Charles-Augustin de Coulomb o Benjamin
Franklin, proseguidas a comienzos del siglo XIX por André-Marie
Ampère, Michael Faraday o Georg Ohm. Los nombres de estos pioneros
terminaron bautizando las unidades hoy utilizadas en la medida de las distintas
magnitudes del fenómeno. La comprensión final de la electricidad se logró
recién con su unificación con el magnetismo en un único fenómeno
electromagnéticodescrito por las ecuaciones de Maxwell (1861-1865).

El telégrafo eléctrico (Samuel Morse, 1833, precedido


por Gauss y Weber, 1822) puede considerarse como la primera gran aplicación
en el campo de las telecomunicaciones, pero no será en la primera revolución
industrial, sino a partir del cuarto final del siglo XIX cuando las aplicaciones
económicas de la electricidad la convertirán en una de las fuerzas motrices de
la segunda revolución industrial. Más que de grandes teóricos como Lord
Kelvin, fue el momento de ingenieros, como Zénobe Gramme, Nikola
Tesla, Frank Sprague, George Westinghouse, Ernst Werner von
Siemens, Alexander Graham Bell y sobre todo Thomas Alva Edison y su
revolucionaria manera de entender la relación entre investigación científico-
técnica y mercado capitalista. Los sucesivos cambios de paradigma de la
primera mitad del siglo XX (relativista y cuántico) estudiarán la función de la
electricidad en una nueva dimensión: atómica y subatómica.

Multiplicador de tensiónCockcroft-Walton utilizado en un acelerador de


partículas de 1937, que alcanzaba un millón de voltios.

La electrificación no sólo fue un proceso técnico, sino un verdadero cambio


social de implicaciones extraordinarias, comenzando por el alumbrado y
siguiendo por todo tipo de procesos industriales (motor
eléctrico, metalurgia, refrigeración...) y de comunicaciones
(telefonía, radio). Lenin, durante la Revolución bolchevique, definió
el socialismo como la suma de la electrificación y el poder de los soviets,3 pero
fue sobre todo la sociedad de consumo que nació en los países capitalistas, la
que dependió en mayor medida de la utilización doméstica de la electricidad en
los electrodomésticos, y fue en estos países donde la retroalimentación entre
ciencia, tecnología y sociedad desarrolló las complejas estructuras que
permitieron los actuales sistemas de I+D e I+D+I, en que la iniciativa pública y
privada se interpenetran, y las figuras individuales se difuminan en los equipos
de investigación.

La energía eléctrica es esencial para la sociedad de la información de la tercera


revolución industrial que se viene produciendo desde la segunda mitad del siglo
XX (transistor, televisión, computación, robótica, internet...). Únicamente puede
comparársele en importancia la motorización dependiente del petróleo (que
también es ampliamente utilizado, como los demás combustibles fósiles, en la
generación de electricidad). Ambos procesos exigieron cantidades cada vez
mayores de energía, lo que está en el origen de la crisis
energética y medioambiental y de la búsqueda de nuevas fuentes de energía,
la mayoría con inmediata utilización eléctrica (energía nuclear y energías
alternativas, dadas las limitaciones de la tradicional hidroelectricidad). Los
problemas que tiene la electricidad para su almacenamiento y transporte a
largas distancias, y para la autonomía de los aparatos móviles, son retos
técnicos aún no resueltos de forma suficientemente eficaz.

El impacto cultural de lo que Marshall McLuhan denominó Edad de la


Electricidad, que seguiría a la Edad de la Mecanización (por comparación a
cómo la Edad de los Metales siguió a la Edad de Piedra), radica en la
altísima velocidad de propagación de la radiación electromagnética
(300 000 km/s) que hace que se perciba de forma casi instantánea. Este hecho
conlleva posibilidades antes inimaginables, como la simultaneidad y la división
de cada proceso en una secuencia. Se impuso un cambio cultural que provenía
del enfoque en "segmentos especializados de atención" (la adopción de una
perspectiva particular) y la idea de la "conciencia sensitiva instantánea de la
totalidad", una atención al "campo total", un "sentido de la estructura total". Se
hizo evidente y prevalente el sentido de "forma y función como una unidad",
una "idea integral de la estructura y configuración". Estas nuevas concepciones
mentales tuvieron gran impacto en todo tipo de ámbitos científicos, educativos
e incluso artísticos (por ejemplo, el cubismo). En el ámbito de lo espacial y
político, "la electricidad no centraliza, sino que descentraliza... mientras que el
ferrocarril requiere un espacio político uniforme, el avión y la radio permiten la
mayor discontinuidad y diversidad en la organización espacial"

Siglo XVII

La Revolución científica que se venía produciendo desde Copérnico en la


astronomía y Galileo en la física no va a encontrar aplicaciones muy tempranas
al campo de la electricidad, limitándose la actividad de los pocos autores que
tratan sobre ella a la recopilación baconiana de datos experimentales, que por
el momento no alcanzan a inducir modelos explicativos también en la era de la
electricidad se produjeron grandes cambios importantes.

William Gilbert: materiales eléctricos y materiales aneléctricos (1600)

William Gilbert
El científico inglés William Gilbert (1544-1603) publicó su libro De Magnete, en
donde utiliza la palabra latina electricus, derivada del griego elektron, que
significa ámbar, para describir los fenómenos descubiertos por los griegos.5
Previamente, el italiano Gerolamo Cardano había ya distinguido, quizá por
primera vez, entre las fuerzas magnéticas y las eléctricas (De Subtilitate 1550).
Gilbert estableció las diferencias entre ambos fenómenos a raíz de que la
reina Isabel I de Inglaterra le ordenara estudiar los imanes para mejorar la
exactitud de las brújulas usadas en la navegación, consiguiendo con este
trabajo la base principal para la definición de los fundamentos de
la electrostática y magnetismo. A través de sus experiencias clasificó los
materiales en eléctricos (conductores) y aneléctricos (aislantes) e ideó el
primer electroscopio. Descubrió la imantación por influencia, y observó que la
imantación del hierro se pierde cuando se calienta al rojo. Estudió la inclinación
de una aguja magnética concluyendo que la Tierra se comporta como un
gran imán. El Gilbert es la unidad de medida de la fuerza magnetomotriz.

Otto von Guericke: las cargas eléctricas (1660)

Otto von Guericke

Las investigaciones de Gilbert fueron continuadas por el físico alemán Otto von
Guericke (1602-1686). En las investigaciones que realizó
sobre electrostáticaobservó que se producía una repulsión entre cuerpos
electrizados luego de haber sido atraídos. Ideó la primera máquina
electrostática y sacó chispas de un globo hecho de azufre, lo cual le llevó a
especular sobre la naturaleza eléctrica de los relámpagos. Fue la primera
persona que estudió la luminiscencia.

Siglo XVIII: la Revolución industrial

La crisis de la conciencia europea renueva el panorama intelectual de finales


del siglo XVII a principios del siglo XVIII y abre las puertas al llamado Siglo de
las luces o de la Ilustración. Instituciones científicas de nuevo cuño, como
la Royal Academy inglesa, y el espíritu crítico que los enciclopedistas franceses
extienden por todo el continente, conviven con el inicio de la Revolución
industrial. No obstante, la retroalimentación entre ciencia, tecnología y
sociedad, aún no se había producido. Aparte del pararrayos, ninguna de las
innovaciones técnicas del siglo tuvo que ver con las investigaciones científicas
sobre la electricidad, hecho que no es exclusivo de este campo: la
mismísima máquina de vapor precedió en cien años a la definición de
la termodinámica por Sadi Carnot.

Stephen Gray: los efluvios (1729)

El físico inglés Stephen Gray (1666-1736) estudió principalmente


la conductividad eléctrica de los cuerpos y, después de muchos experimentos,
fue el primero en 1729 en transmitir electricidad a través de un conductor. En
sus experimentos descubrió que para que la electricidad, o los "efluvios" o
"virtud eléctrica", como él la llamó, pudiera circular por el conductor, éste tenía
que estar aislado de tierra. Posteriormente estudió otras formas de transmisión
y, junto con los científicos G. Wheler y J. Godfrey, clasificó los materiales en
conductores y aislantes de la electricidad.

Charles François de Cisternay Du Fay: carga vítrea y carga resinosa (1733)

Charles François du Fay

El científico francés Charles François de Cisternay Du Fay (1698-1739) al


enterarse de los trabajos de Stephen Gray, dedicó su vida al estudio de los
fenómenos eléctricos. Du Fay, entre otros muchos experimentos, observó que
una lámina de oro siempre era repelida por una barra de vidrio electrificada.
Publicó sus trabajos en 1733 siendo el primero en identificar la existencia de
dos tipos de cargas eléctricas (denominadas hoy en día positiva y negativa),
que él denominó carga vítrea y carga resinosa, debido a que ambas se
manifestaban de una forma al frotar, con un paño de seda, el vidrio (carga
positiva) y de forma distinta al frotar, con una piel, algunas substancias
resinosas como el ámbar o la goma (carga negativa).

Pieter van Musschenbroek: la botella de Leyden (1745)

Pieter van Musschenbroek

El físico holandés Pieter van Musschenbroek (1692-1761), que trabajaba en


la Universidad de Leiden, efectuó una experiencia para comprobar si una
botella llena de agua podía conservar cargas eléctricas. Esta botella consistía
en un recipiente con un tapón al cual se le atraviesa una varilla metálica
sumergida en el líquido. La varilla tiene una forma de gancho en la parte
superior al cual se le acerca un conductor cargado eléctricamente. Durante la
experiencia un asistente separó el conductor y recibió una fuerte descarga al
aproximar su mano a la varilla, debida a la electricidad estática que se había
almacenado en la botella. De esta manera fue descubierta la botella de
Leyden y la base de los actuales condensadores eléctricos, llamados
incorrectamente capacitores por anglicismo.

William Watson: la corriente eléctrica (1747)

William Watson

Sir William Watson (1715-1787), médico y físico inglés, estudió los


fenómenos eléctricos. Realizó reformas en la botella de Leyden agregándole
una cobertura de metal, descubriendo que de esta forma se incrementaba la
descarga eléctrica. En 1747 demostró que una descarga de electricidad
estática es una corriente eléctrica. Fue el primero en estudiar la propagación de
corrientes en gases enrarecidos.

Benjamin Franklin: el pararrayos (1752)

Retrato de Benjamin Franklin

1752 El polifacético estadounidense Benjamin Franklin (1706-1790) investigó


los fenómenos eléctricos naturales. Es particularmente famoso su experimento
en el que, haciendo volar una cometa durante una tormenta, demostró que
los rayos eran descargas eléctricas de tipo electrostático. Como consecuencia
de estas experimentaciones inventó el pararrayos. También formuló una teoría
según la cual la electricidad era un fluido único existente en toda materia y
calificó a las substancias en eléctricamente positivas y eléctricamente
negativas, de acuerdo con el exceso o defecto de ese fluido.

Charles-Augustin de Coulomb: fuerza entre dos cargas (1777)

Charles-Augustin de Coulomb

El físico e ingeniero francés Charles-Augustin de Coulomb (1736 - 1806) fue el


primero en establecer las leyes cuantitativas de la electrostática, además de
realizar muchas investigaciones sobre magnetismo, rozamiento y electricidad.
Sus investigaciones científicas están recogidas en siete memorias, en las que
expone teóricamente los fundamentos del magnetismo y de la electrostática.
En 1777 inventó la balanza de torsión para medir la fuerza de atracción o
repulsión que ejercen entre sí dos cargas eléctricas y estableció la función que
liga esta fuerza con la distancia. Con este invento, culminado en 1785,
Coulomb pudo establecer la expresión de la fuerza entre dos cargas
eléctricas q y Q en función de la distancia d que las separa, actualmente
conocida como Ley de Coulomb: F = k (q Q) / d2. Coulomb también estudió la
electrización por frotamiento y la polarización e introdujo el concepto
de momento magnético. El Coulomb (símbolo C), castellanizado a Culombio,
es la unidad del SI para la medida de la cantidad de carga eléctrica.

Luigi Galvani: el impulso nervioso (1780)

Luigi Galvani

El médico y físico italiano Luigi Galvani (1737-1798) se hizo famoso por sus
investigaciones sobre los efectos de la electricidad en los músculos de los
animales. Mientras disecaba una rana halló accidentalmente que sus patas se
contraían al tocarlas con un objeto cargado de electricidad. Por ello se le
considera el iniciador de los estudios del papel que desempeña la electricidad
en el funcionamiento de los organismos animales. De sus discusiones con otro
gran científico italiano de su época, Alessandro Volta, sobre la naturaleza de
los fenómenos observados, surgió la construcción de la primera pila, o aparato
para producir corriente eléctrica continua, llamado pila de Volta. El nombre de
Luigi Galvani sigue hoy asociado con la electricidad a través de términos
como galvanismo y galvanización. Sus estudios preludiaron una ciencia que
surgiría mucho después: la neurofisiología, estudio del funcionamiento
del sistema nervioso en la que se basa la neurología.

Alessandro Volta: la pila de Volta (1800)


Alessandro Volta

El físico italiano Alessandro Volta (1745-1827) inventa la pila, precursora de


la batería eléctrica. Con un apilamiento de discos de zinc y cobre, separados
por discos de cartón humedecidos con un electrólito, y unidos en sus extremos
por un circuito exterior, Volta logró, por primera vez, producir corriente eléctrica
continua a voluntad. Dedicó la mayor parte de su vida al estudio de los
fenómenos eléctricos, inventó el electrómetro y el eudiómetro y escribió
numerosos tratados científicos. Por su trabajo en el campo de la
electricidad, Napoleón le nombró conde en 1801. La unidad de tensión
eléctrica o fuerza electromotriz, el Volt (símbolo V), castellanizado como Voltio,
recibió ese nombre en su honor.

Principios del siglo XIX: el tiempo de los teóricos

El propósito de la ciencia optimista surgida de la Ilustración era la comprensión


total de la realidad. En el ámbito de la electricidad la clave sería describir
estas fuerzas a distancia como en las ecuaciones de la mecánica newtoniana.
Pero la realidad era mucho más compleja como para dar fácil cumplimiento a
este programa. La capacidad de desviar agujas imantadas, descubierta por
Oersted (1820), y la inducción electromagnética descubierta por Faraday
(1821), acabaron por interrelacionar la electricidad con el magnetismo y los
movimientos mecánicos. La teoría completa del campo electromagnético tuvo
que esperar a Maxwell, e incluso entonces (1864), al comprobarse que una de
las constantes que aparecían en su teoría tenía el mismo valor que la velocidad
de la luz, se apuntó la necesidad de englobar también la óptica en el
electromagnetismo.

El romanticismo, con su gusto por lo tétrico y su desconfianza en la razón,


añadió un lado oscuro a la consideración de la electricidad, que excitaba la
imaginación de la forma más morbosa: ¿el dominio humano de tal fuerza de la
naturaleza le pondría al nivel creador que hasta entonces sólo se imaginaba al
alcance de seres divinos? Con cadáveres y electricidad Mary Wollstonecraft
Shelley compuso la trama de Frankenstein o el moderno Prometeo (1818),
novela precursora tanto del género de terror como de la ciencia ficción.
Humphry Davy: la electrólisis (1807) y el arco eléctrico (1808)

Humphry Davy

1807 Sir Humphry Davy (1778-1829). Químico británico. Se le considera el


fundador de la electroquímica, junto con Volta y Faraday. Davy contribuyó a
identificar experimentalmente por primera vez varios elementos químicos
mediante la electrólisis y estudió la energía involucrada en el proceso. Entre
1806 y 1808 publica el resultado de sus investigaciones sobre la electrólisis,
donde logra la separación
del magnesio, bario, estroncio, calcio, sodio, potasio y boro. En 1807 fabrica
una pila con más de 2000 placas dobles con la que descubre el cloro y
demuestra que se trata de un elemento químico, dándole ese nombre debido a
su color amarillo verdoso. Junto a W.T. Brande consigue aislar al litio de sus
sales mediante electrólisis del óxido de litio (1818). Fue jefe y mentor
de Michael Faraday. Creó además una lámpara de seguridad para las minas
que lleva su nombre (1815) y fue pionero en el control de la corrosión mediante
la protección catódica. En 1805 le fue concedida la Medalla Copley.

Hans Christian Ørsted: el electromagnetismo (1819)

Hans Christian Ørsted

El físico y químico danés Hans Christian Ørsted (1777-1851) fue un gran


estudioso del electromagnetismo. En 1813 predijo la existencia de los
fenómenos electromagnéticos y en 1819 logró demostrar su teoría
empíricamente al descubrir, junto con Ampère, que una aguja imantada se
desvía al ser colocada en dirección perpendicular a un conductor por el que
circula una corriente eléctrica. Este descubrimiento fue crucial en el desarrollo
de la electricidad, ya que puso en evidencia la relación existente entre la
electricidad y el magnetismo. En homenaje a sus contribuciones se
denominó Oersted (símbolo Oe) a la unidad de intensidad de campo magnético
en el sistema Gauss. Se cree que también fue el primero en aislar el aluminio,
por electrólisis, en 1825. En 1844 publicó su Manual de Física Mecánica.

Thomas Johann Seebeck: la termoelectricidad (1821)

Thomas Johann Seebeck

El médico e investigador físico natural de Estonia, Thomas Johann


Seebeck (1770-1831) descubrió el efecto termoeléctrico. En 1806 descubrió
también los efectos de radiación visible e invisible sobre sustancias químicas
como el cloruro de plata. En 1808, obtuvo la primera combinación química
de amoníaco con óxido mercúrico. A principios de 1820, Seebeck realizó
variados experimentos en la búsqueda de una relación entre la electricidad y
calor. En 1821, soldando dos alambres de metales diferentes (cobre y bismuto)
en un lazo, descubrió accidentalmente que al calentar uno a alta temperatura y
mientras el otro se mantenía a baja temperatura, se producía un campo
magnético. Seebeck no creyó, o no divulgó que una corriente eléctrica era
generada cuando el calor se aplicaba a la soldadura de los dos metales. En
cambio, utilizó el término termomagnetismo para referirse a su descubrimiento.
Actualmente se lo conoce como efecto Peltier-Seebeck o efecto
termoeléctrico y es la base del funcionamiento de los termopares.

André-Marie Ampère: el solenoide (1822)


André-Marie Ampère

El físico y matemático francés André-Marie Ampère (1775-1836) está


considerado como uno de los descubridores del electromagnetismo. Es
conocido por sus importantes aportaciones al estudio de la corriente eléctrica y
el magnetismo que constituyeron, junto con los trabajos del danés Hans
Chistian Oesterd, el desarrollo del electromagnetismo. Sus teorías e
interpretaciones sobre la relación entre electricidad y magnetismo se publicaron
en 1822, en su Colección de observaciones sobre electrodinámica y en 1826,
en su Teoría de los fenómenos electrodinámicos. Ampère descubrió las leyes
que determinan el desvío de una aguja magnética por una corriente eléctrica, lo
que hizo posible el funcionamiento de los actuales aparatos de medida.
Descubrió las acciones mutuas entre corrientes eléctricas, al demostrar que
dos conductores paralelos por los que circula una corriente en el mismo
sentido, se atraen, mientras que si los sentidos de la corriente son opuestos, se
repelen. La unidad de intensidad de corriente eléctrica, el Ampère (símbolo A),
castellanizada como Amperio, recibe este nombre en su honor.

William Sturgeon: el electroimán (1825), el conmutador (1832) y el


galvanómetro (1836)

William Sturgeon

El físico británico William Sturgeon (1783-1850) inventó en 1825 el


primer electroimán. Era un trozo de hierro con forma de herradura envuelto por
una bobinaenrollada sobre él mismo. Sturgeon demostró su potencia
levantando 4 kg con un trozo de hierro de 200 g envuelto en cables por los que
hizo circular la corriente de una batería. Sturgeon podía regular su electroimán,
lo que supuso el principio del uso de la energía eléctrica en máquinas útiles y
controlables, estableciendo los cimientos para las comunicaciones electrónicas
a gran escala. Este dispositivo condujo a la invención del telégrafo, el motor
eléctrico y muchos otros dispositivos que fueron base de la tecnología
moderna. En 1832 inventó el conmutador para motores eléctricos y
en 1836 inventó el primer galvanómetro de bobina giratoria.

Georg Simon Ohm: la ley de Ohm (1827)

Artículo principal: Ley de Ohm

Georg Simon Ohm

Georg Simon Ohm (1789-1854) fue un físico y matemático alemán que estudió
la relación entre el voltaje V aplicado a una resistencia R y la intensidad de
corriente I que circula por ella. En 1827 formuló la ley que lleva su nombre
(la ley de Ohm), cuya expresión matemática es V = I · R. También se interesó
por la acústica, la polarización de las pilas y las interferencias luminosas. En su
honor se ha bautizado a la unidad de resistencia eléctrica con el nombre de
Ohm (símbolo Ω), castellanizado a Ohmio.

Joseph Henry: inducción electromagnética (1830)

Joseph Henry

El estadounidense Joseph Henry (1797-1878) fue un físico que investigó el


electromagnetismo y sus aplicaciones en electroimanes y relés. Descubrió
la inducción electromagnética, simultánea e independientemente de Faraday,
cuando observó que un campo magnético variable puede inducir una fuerza
electromotriz en un circuito cerrado. En su versión más simple, el experimento
de Henry consiste en desplazar un segmento de conductorperpendicularmente
a un campo magnético, lo que produce una diferencia de potencial entre sus
extremos. Esta fuerza electromotriz inducida se explica por la fuerza de
Lorentz que ejerce el campo magnético sobre los electrones libres del
conductor. En su honor se denominó Henry (símbolo H) a la unidad
de inductancia, castellanizada como Henrio.

Johann Carl Friedrich Gauss: Teorema de Gauss de la electrostática

Carl Friedrich Gauss

1832-1835. El matemático, astrónomo y físico alemán Johann Carl Friedrich


Gauss (1777-1855), hizo importantes contribuciones en campos como la teoría
de números, el análisis matemático, la geometría diferencial, la geodesia,
la electricidad, el magnetismo y la óptica. Considerado uno de los matemáticos
de mayor y más duradera influencia, se contó entre los primeros en extender el
concepto de divisibilidad a conjuntos diferentes de los numéricos. En 1831 se
asoció al físico Wilhelm Weber durante seis fructíferos años durante los cuales
investigaron importantes problemas como las Leyes de Kirchhoff y
del magnetismo, construyendo un primitivo telégrafo eléctrico. Su contribución
más importante a la electricidad es la denominada Ley de Gauss, que relaciona
la carga eléctrica q contenida en un volumen V con el flujo del campo eléctrico
sobre la cerrada superficie S que encierra el volumen V, cuya expresión
matemática es:

En su honor se dio el nombre de Gauss (símbolo G) a la unidad de intensidad


de campo magnético del Sistema Cegesimal de Unidades (CGS). Su relación
con la correspondiente unidad del Sistema Internacional de Unidades (SI),
el Tesla (símbolo T), es 1 G = 10-4 T.

Michael Faraday: inducción (1831), generador (1831-1832), leyes y jaula de


Faraday
Michael Faraday

El físico y químico inglés Michael Faraday (1791-1867), discípulo de Humphry


Davy, es conocido principalmente por su descubrimiento de la inducción
electromagnética, que ha permitido la construcción de generadores y motores
eléctricos, y de las leyes de la electrólisis por lo que es considerado como el
verdadero fundador del electromagnetismo y de la electroquímica. En 1831
trazó el campo magnético alrededor de un conductor por el que circula una
corriente eléctrica, ya descubierto por Oersted, y ese mismo año descubrió
la inducción electromagnética, demostró la inducción de una corriente eléctrica
por otra, e introdujo el concepto de líneas de fuerza para representar los
campos magnéticos. Durante este mismo periodo, investigó sobre la electrólisis
y descubrió las dos leyes fundamentales que llevan su nombre: 1ª). La masa
de sustancia liberada en una electrólisis es directamente proporcional a la
cantidad de electricidad que ha pasado a través del electrólito [masa =
equivalente electroquímico, por la intensidad y por el tiempo (m = c I t)]; 2ª) Las
masas de distintas sustancia liberadas por la misma cantidad de electricidad
son directamente proporcionales a sus pesos equivalentes. Con sus
investigaciones se dio un paso fundamental en el desarrollo de la electricidad al
establecer que el magnetismo produce electricidad a través del movimiento. En
su honor se denominó Farad (símbolo F), castellanizado como Faradio, a la
unidad de capacidad del SI de unidades. El Faradio se define como la
capacidad de un condensador tal que cuando su carga es un Culombio,
adquiere una diferencia de potencial electrostático de un voltio.

Heinrich Friedrich Lenz: ley de Lenz (1834)

Heinrich Lenz
El físico estonio Heinrich Friedrich Lenz (1804-1865) formuló en 1834 la ley de
la oposición de las corrientes inducidas, conocida como Ley de Lenz, cuyo
enunciado es el siguiente: El sentido de las corrientes, o fuerza electromotriz
inducida, es tal que siempre se opone a la variación del flujo que la produce.
También realizó investigaciones significativas sobre la conductividad de los
cuerpos, en relación con su temperatura, descubriendo en 1843 la relación
entre ambas; lo que luego fue ampliado y desarrollado por James Prescott
Joule, por lo que pasaría a llamarse Ley de Joule.

Jean Peltier: efecto Peltier (1834), inducción electrostática (1840)

Jean Peltier

Jean Peltier (1785-1845) descubrió el efecto Peltier en 1834 y definió


la inducción electrostática en 1840.

Samuel Morse: telégrafo (1833-1837)

Morse con un prototipo de su invención

El inventor estadounidense Samuel Finley Breese Morse (1791-1872) es


principalmente conocido por la invención del telégrafo eléctrico y la invención
del código Morse. El 6 de enero de 1833, Morse realizó su primera
demostración pública con su telégrafo mecánico óptico y efectuó con éxito las
primeras pruebas en febrero de 1837 en un concurso convocado por
el Congreso de los Estados Unidos. También inventó un alfabeto, que
representa las letras y números por una serie de puntos y rayas, conocido
actualmente como código Morse, para poder utilizar su telégrafo. En el
año 1843, el Congreso de los Estados Unidos le asignó 30 000 dólares para
que construyera la primera línea de telégrafo entre Washington y Baltimore, en
colaboración con Joseph Henry. El 24 de mayo de 1844 Morse envió su
famoso primer mensaje: «¿Que nos ha traído Dios?». Fue objeto de muchos
honores y en sus últimos años se dedicó a experimentar con la telegrafía
submarina por cable.

Ernst Werner M. von Siemens: Locomotora eléctrica (1879)

Werner von Siemens

El ingeniero alemán, Ernst Werner von Siemens (1816-1892) construyó en


1847 un nuevo tipo de telégrafo, poniendo así la primera piedra en la
construcción de la empresa Siemens AG junto a Johann Georg Halske. En
1841 desarrolló un proceso de galvanización, en 1846 un telégrafo de aguja y
presión y un sistema de aislamiento de cables eléctricos mediante gutapercha,
lo que permitió, en la práctica, la construcción y tendido de cables submarinos.
Fue uno de los pioneros de las grandes líneas telegráficas transoceánicas,
responsable de la línea Irlanda-EE.UU (comenzada en 1874 a bordo del buque
Faraday) y Gran Bretaña-India (1870). Aunque probablemente no fue el
inventor de la dínamo, la perfeccionó hasta hacerla confiable y la base de la
generación de la corriente alterna en las primeras grandes usinas. Fue pionero
en otras invenciones, como el telégrafo con puntero/teclado para hacer
transparente al usuario el código Morse o la primera locomotora eléctrica,
presentada por su empresa en 1879. Dentro de sus muchos inventos y
descubrimientos eléctricos se destacan la dinamo y el uso de la gutapercha,
sustancia plástica extraída del látex, usada como aislador eléctrico en el
recubrimiento de cables conductores. En homenaje a sus contribuciones en
el SI se denomina siemens (símbolo S) a la unidad de conductancia eléctrica
(inversa de la resistencia), previamente llamada mho.
Charles Wheatstone: puente de Wheatstone (1843)

Charles Wheatstone

El físico e inventor inglés Charles Wheatstone (1802-1875) es especialmente


conocido por ser el primero en aplicar el circuito eléctrico que lleva su nombre
(puente de Wheatstone) para medir resistencias eléctricas. En realidad había
sido diseñado previamente por Samuel Hunter Christie en 1832, con lo que el
papel de Wheatstone fue la mejora y popularización, a partir de 1843. Se utiliza
para medir resistencias desconocidas mediante el equilibrio de los brazos de
un puente en H formado por cuatro resistencias, una de las cuales es la
resistencia a medir. Wheatstone fue un autodidacta que llegó a convertirse en
profesor de filosofía experimental de la Universidad de Londres, en 1834. En
colaboración con el ingeniero William Fothergill Cooke, patentó en 1837 el
primer telégrafoeléctrico británico, simultáneamente con el inventado
por Morse. Charles Wheatstone inventó también un instrumento óptico para la
fotografía en tres dimensiones (estereoscopio), un telégrafo automático y un
péndulo electromagnético.

James Prescott Joule: relaciones entre electricidad, calor y trabajo (1840-1843)

James Prescott Joule

James Prescott Joule (1818-1889), físico inglés, es conocido por sus estudios
sobre la energía y sus aplicaciones técnicas. Su principal contribución a la
electricidad es la cuantificación de la generación de calor producido por una
corriente eléctrica que atraviesa una resistencia, ley que lleva su nombre (Ley
de Joule): Todo cuerpo conductor recorrido por una corriente eléctrica,
desprende una cantidad de calor equivalente al trabajo realizado por el campo
eléctrico para transportar las cargas de un extremo a otro del conductor durante
ese tiempo, formulada como: También descubrió la equivalencia entre
el trabajo mecánico y la cantidad de calor (cuya unidad histórica es la caloría).
Junto con su compatriota, el físico William Thomson (conocido posteriormente
como lord Kelvin), Joule descubrió que la temperatura de un gas desciende
cuando se expande sin realizar trabajo. Este fenómeno, que se conoce
como efecto Joule-Thomson, es el principio constructivo de los refrigeradores.
Alrededor de 1841, junto con el científico alemán Hermann von Helmholtz,
demostró que la electricidad es una forma de energía y que los circuitos
eléctricos cumplen la ley de la conservación de la energía. El Joule (símbolo J),
castellanizado a Julio, es la unidad del Sistema Internacional para la energía y
el trabajo mecánico. Se define como el trabajo realizado por una fuerza de
1 Newton cuando se desplaza paralelamente a sí misma en un 1 metro.

Gustav Robert Kirchhoff: leyes de Kirchhoff (1845)

Gustav Robert Kirchhoff

Las principales contribuciones a la ciencia del físico alemán Gustav Robert


Kirchhoff (1824-1887), estuvieron en el campo de los circuitos eléctricos,
la teoría de placas, la óptica, la espectroscopia y la emisión de radiación
de cuerpo negro. Kirchhoff propuso el nombre de radiación de cuerpo negro en
1862. Es responsable de dos conjuntos de leyes fundamentales en la teoría
clásica de circuitos eléctricos y en la emisión térmica. Aunque ambas se
denominan Leyes de Kirchhoff, probablemente esta denominación es más
común en el caso de las Leyes de Kirchhoff de la ingeniería eléctrica. Estas
leyes permiten calcular la distribución de corrientes y tensiones en las redes
eléctricas con derivaciones y establecen lo siguiente: 1ª) La suma algebraica
de las intensidades que concurren en un punto es igual a cero. 2ª) La suma
algebraica de los productos parciales de intensidad por resistencia, en una
malla, es igual a la suma algebraica de las fuerzas electromotrices en ella
existentes, cuando la intensidad de corriente es constante. Junto con los
químicos alemanes Robert Wilhelm Bunsen y Joseph von Fraunhofer, fue de
los primeros en desarrollar las bases teóricas y experimentales de la
espectroscopia, desarrollando el espectroscopiomoderno para el análisis
químico. En 1860 Kirchhoff y Bunsen descubrieron el cesio y
el rubidio mediante la espectroscopia. Kirchhoff también estudio el espectro
solar y realizó importantes investigaciones sobre la transferencia de calor.

William Thomson (Lord Kelvin): relación entre los efectos Seebeck y Peltier
(1851), cable flexible (1858)

William Thomson (Lord Kelvin)

El matemático inglés William Thomson (Lord Kelvin) (1824-1907), realizó


muchos trabajos de investigación física, por ejemplo, el análisis teórico sobre
transmisión por cable, que hizo posible el desarrollo del cable transatlántico. En
1851 definió la Segunda Ley de la Termodinámica. En 1858 inventó el cable
flexible. Kelvin destacó por sus importantes trabajos en el campo de
la termodinámica y la electrónica gracias a sus profundos conocimientos
de análisis matemático. Es uno de los científicos que más hizo por llevar a la
física a su forma moderna. Es especialmente famoso por haber desarrollado
la escala de temperatura Kelvin. También descubrió en 1851 el llamado efecto
Thomson, por el que logró demostrar que el efecto Seebeck y el efecto
Peltier están relacionados. Así, un material sometido a un gradiente térmico y
recorrido por una intensidad intercambia calor con el medio exterior.
Recíprocamente, una corriente eléctrica es generada por el material sometido a
un gradiente térmico y recorrido por un flujo de calor. La diferencia fundamental
entre los efectos Seebeck y Peltier con respecto al efecto Thomson es que este
último existe para un solo material y no necesita la existencia de una soldadura.
Recibió el título de barón Kelvin en honor a los logros alcanzados a lo largo de
su carrera. El Kelvin es la unidad de medida de temperatura absoluta.

Heinrich Daniel Ruhmkorff: la bobina de Ruhmkorff genera chispas de alto


voltaje (1851)
El físico alemán Heinrich Daniel Ruhmkorff o Rühmkorff (1803-1877) se dedicó
principalmente a la construcción de aparatos e instrumentos eléctricos de gran
calidad y precisión. Ideó en 1851 la bobina de inducción o bobina de
Ruhmkorff, popular instrumento del siglo XIX. De invención anterior a la de
los transformadores de corriente alterna, es un verdadero transformador
polimorfo y elevador en el que se obtiene, a partir de una corriente primaria
continua y de poca fuerza electromotriz suministrada por una pila o batería, otra
de alta tensión y alterna. Las elevadas diferentes de potencial producidas
podían ser aplicadas sobre los extremos de un tubo de Crookes para provocar
la emisión de unos rayos que, por su carácter desconocido, fueron
denominados rayos X y que empezaron a ser empleados para realizar
fotografías a través de los cuerpos opacos. Estas bobinas fueron las
precursoras de las que se instalan en los automóviles para elevar la tensión en
la bujía de los motores de gasolina para realizar el encendido de la mezcla de
combustible.

Léon Foucault: corrientes de Foucault (1851)

Jean Bernard Léon Foucault

El físico francés Léon Foucault (1819-1868) inventó el giroscopio, demostró la


rotación de la tierra mediante un péndulo que creó al efecto y midió la velocidad
de la luz mediante espejos giratorios. En el campo de la electricidad, se dedicó
al estudio del electromagnetismo y descubrió las corrientes que llevan su
nombre. En septiembre de 1855 descubrió que la fuerza requerida para la
rotación de un disco de cobre aumenta cuando se lo hace rotar entre los polos
de un imán. Al mismo tiempo el disco comienza a calentarse por las corrientes
(llamadas "de Foucault") inducidas en el metal.

Zénobe-Théophile Gramme: la primera dinamo (1870)


Estatua de Zenobe Grammeen París

El científico belga Zénobe-Théophile Gramme (1826-1901) construyó la


primera máquina de corriente continua denominada dinamo que fue un punto
de partida de la nueva industria eléctrica. Una dinamo es
una máquina destinada a la transformación de energía
mecánica en eléctrica mediante el fenómeno de la inducción electromagnética.
La corriente generada es producida cuando el campo magnético creado por
un imán o un electroimán fijo (inductor) atraviesa una bobina rotatoria
(inducido) colocada en su seno. La corriente inducida en esta bobina giratoria,
en principio alterna es transformada en continua mediante la acción de un
conmutador giratorio, solidario con el inducido, denominado colector,
constituido por unos electrodos denominados delgas. De aquí es conducida al
exterior mediante otros contactos fijos llamados escobillas que hacen contacto
por frotamiento con las delgas del colector. La dinamo fue el primer generador
eléctrico apto para uso industrial. Zénobe Gramme perfeccionó los inventos de
dinamos que existían y reinventó el diseño al proyectar los primeros
generadores comerciales a gran escala, que operaban en París en torno a
1870. Su diseño se conoce como la dinamo de Gramme.

Johann Wilhelm Hittorf: el primer tubo de rayos catódicos (1872)

Johann Wilhelm Hittorf


El catedrático de física y química alemán Johann Wilhelm Hittorf (1824-1914)
contribuyó poderosamente al desarrollo de la electroquímicacon innumerables
inventos. Por uno de sus trabajos (tubo de Hittorf, 1872) es considerado
precursor del tubo de Crookes con el que William Crookes dedujo la existencia
de los rayos catódicos (1878). Estudió también las variaciones del espectro al
variar la atmósfera. Determinó la íntima dependencia entre la conductividad
eléctrica y la acción química y la división de las sales complejas por la vía de la
corriente. Estudió la alotropía del selenio y del fósforo, describió el
comportamiento electroquímico del cromo y registró la velocidad de emigración
de los iones sometidos a la acción de la corriente eléctrica. Es autor de Über
die Wanderung der Ionen während der Elektrolyse.

James Clerk Maxwell: las cuatro ecuaciones de Maxwell (1875)

James Clerk Maxwell en su juventud

El físico y matemático escocés James Clerk Maxwell (1831-1879) es conocido


principalmente por haber desarrollado un conjunto de ecuaciones que expresan
las leyes fundamentales de la electricidad y el magnetismo así como por
la estadística de Maxwell-Boltzmann en la teoría cinética de gases. También se
dedicó a la investigación de la visión de los colores y los principios de la
termodinámica. Formuló teóricamente que los anillos de Saturno estaban
formados por materia disgregada. Maxwell amplió las investigaciones
que Michael Faraday había realizado sobre los campos electromagnéticos,
formulando la relación matemática entre los campos
eléctricos y magnéticos por medio de cuatro ecuaciones diferenciales (llamadas
hoy "las ecuaciones de Maxwell") que relacionan el campo eléctrico y el
magnético para una distribución espacial de cargas y corrientes. También
demostró que la naturaleza de los fenómenos luminosos y electromagnéticos
era la misma y que ambos se propagan a la velocidad de la luz. Su obra más
importante es el Treatise on Electricity and Magnetism (Tratado de electricidad
y magnetismo, 1873), en el que publicó sus famosas ecuaciones. También
escribió: Matter and motion (Materia y movimiento, 1876) y Theory of
Heat (Teoría del calor, 1877). La teoría de Maxwell obtuvo su comprobación
definitiva cuando Heinrich Rudolf Hertz obtuvo en 1888 las ondas
electromagnéticas de radio. Sus investigaciones posibilitaron la invención
del telégrafo sin cables y la radio. La unidad de flujo magnético en el sistema
cegesimal, el maxwell, recibe este nombre en su honor.

Finales del siglo XIX: el tiempo de los ingenieros

Los años centrales del siglo XIX habían presenciado extraordinarios avances
en la aplicación de la electricidad a las comunicaciones y en 1881 se organizó
en París una Exposición Internacional de Electricidad y un Congreso
Internacional de Electricistas.38 Aunque para todo ello el conocimiento
científico de la electricidad y el magnetismo había sido imprescindible, los
técnicos o inventores adquirieron un sentimiento de superioridad, e incluso de
reticencia hacia los científicos puros. Incluso la teoría de Maxwell era ignorada
por la mayoría de los ingenieros eléctricos, que en su práctica tecnológica no la
necesitaban. Esto no pudo mantenerse a partir de la demostración
experimental de la radiación electromagnética (Heinrich Hertz, 1888), y en la
década de los noventa las nuevas generaciones de ingenieros incorporaron
con mayor confianza las aportaciones teóricas y estuvieron mejor preparados
para las nuevas tecnologías eléctricas que aplicaban los efectos del campo
electromagnético, como la corriente alterna.

Dos invenciones que aplicaban el motor eléctrico a la tracción de vehículos


revolucionaron particularmente la vida urbana, permitiendo una movilidad en el
espacio que se convirtió en movilidad social: el ascensor eléctrico y
el tranvía eléctrico (ambas con participación de Frank J. Sprague). Hasta
entonces era habitual que pobres y ricos compartieran la misma casa en
los ensanches burgueses (unos en la planta principal y otros en
las buhardillas), con alturas que no solían superar las cinco o seis plantas. El
urbanismo del siglo XX permitió el crecimiento de megaciudades, con nítidas
diferencias entre barrios de ricos y pobres, y con desplazamientos horizontales
kilométricos y de decenas de plantas en vertical (los rascacielos). El Metro de
Londres, que funcionaba con locomotoras de vapor desde 1863, aplicó la
tracción eléctrica para permitir líneas a más profundidad sin tantos requisitos de
ventilación (llamadas deep-level) desde 1890, y el sistema se difundió por otras
ciudades europeas y americanas
(Budapest y Glasgow, 1886; Boston, 1897; subte de Buenos Aires, 1913; metro
de Madrid, 1919). La electrificación de los ferrocarriles fue posterior (véase
sección Electrificación de los ferrocarriles).

Alexander Graham Bell: el teléfono (1876)


Alexander Graham Bell

El escocés-estadounidense Alexander Graham Bell, científico, inventor


y logopeda (1847-1922), se disputó con otros investigadores la invención
del teléfono y consiguió la patente oficial en los Estados Unidos en 1876.39
Previamente habían sido desarrollados dispositivos similares por otros
investigadores, entre quienes destacó Antonio Meucci (1871), que entabló
pleitos fallidos con Bell hasta su muerte, y a quien suele reconocerse
actualmente la prelación en el invento.

Bell contribuyó de un modo decisivo al desarrollo de las telecomunicaciones a


través de su empresa comercial (Bell Telephone Company, 1877,
posteriormente AT&T). También fundó en la ciudad
de Washington el Laboratorio Volta, donde, junto con sus socios, inventó un
aparato que transmitía sonidos mediante rayos de luz (el fotófono, 1880); y
desarrolló el primer cilindro de cera para grabar (1886), lo que sentó las bases
del gramófono. Participó en la fundación de la National Geographic Society y
de la revista Science.

Thomas Alva Edison: desarrollo de la lámpara incandescente (1879), Menlo


Park y comercialización

Thomas Alva Edison


El inventor norteamericano Thomas Alva Edison (1847-1931) ha sido
considerado como el mayor inventor de todos los tiempos. Aunque se le
atribuye la invención de la lámpara incandescente, su intervención es más bien
el perfeccionamiento de modelos anteriores (Heinrich Göbel, relojero alemán,
había fabricado lámparas funcionales tres décadas antes). Edison logró, tras
muchos intentos, un filamento que alcanzaba la incandescencia sin fundirse: no
era de metal, sino de bambú carbonizado. El 21 de octubre de 1879 consiguió
que su primera bombilla luciera durante 48 horas ininterrumpidas, con
1,7 lúmenes por vatio. La primera lámpara incandescente con un filamento de
algodón carbonizado construida por Edison fue presentada, con mucho éxito,
en la Primera Exposición de Electricidad de París (1881) como una instalación
completa de iluminación eléctrica de corriente continua; sistema que
inmediatamente fue adoptado tanto en Europa como en Estados Unidos. En
1882 desarrolló e instaló la primera gran central eléctrica del mundo en Nueva
York. Sin embargo, más tarde, su uso de la corriente continua se vio
desplazado por el sistema de corriente alterna desarrollado por Nikola
Tesla y George Westinghouse.

Su visión comercial de la investigación científico-técnica le llevó a fundar el


laboratorio de Menlo Park, donde consiguió un eficaz trabajo en equipo de un
gran número de colaboradores. Gracias a ello llegó a registrar
1093 patentes de inventos desarrollados por él y sus ayudantes, inventos cuyo
desarrollo y mejora posterior han marcado profundamente la evolución de la
sociedad moderna, entre ellos: el fonógrafo, un sistema generador de
electricidad, un aparato para grabar sonidos y un proyector de películas
(el kinetoscopio), uno de los primeros ferrocarriles eléctricos, unas máquinas
que hacían posible la transmisión simultánea de diversos mensajes telegráficos
por una misma línea (lo que aumentó enormemente la utilidad de las líneas
telegráficas existentes), el emisor telefónico de carbón (muy importante para el
desarrollo del teléfono, que había sido inventado recientemente por Alexander
Graham Bell), etc. Al sincronizar el fonógrafo con el kinetoscopio, produjo en
1913 la primera película sonora.

En el ámbito científico descubrió el efecto Edison, patentado en 1883, que


consistía en el paso de electricidad desde un filamento a una placa metálica
dentro de un globo de lámpara incandescente. Aunque ni él ni los científicos de
su época le dieron importancia, este efecto sería uno de los fundamentos de
la válvula de la radio y de la electrónica. En 1880 se asoció con el
empresario J. P. Morgan para fundar la General Electric.

John Hopkinson: el sistema trifásico (1882)

El ingeniero y físico inglés John Hopkinson (1849-1898) contribuyó al desarrollo


de la electricidad con el descubrimiento del sistema trifásico para la generación
y distribución de la corriente eléctrica, sistema que patentó en 1882. Un
sistema de corrientes trifásicas es el conjunto de tres corrientes alternas
monofásicas de igual frecuencia y amplitud (y por consiguiente, valor eficaz)
que presentan un desfase entre ellas de 120° (un tercio de ciclo). Cada una de
las corrientes monofásicas que forman el sistema se designa con el nombre
de fase. También trabajó en muchas áreas del electromagnetismo y
la electrostática. De sus investigaciones estableció que "el flujo de inducción
magnética es directamente proporcional a la fuerza magnetomotriz e
inversamente proporcional a la reluctancia", expresión muy parecida a la
establecida en la Ley de Ohm para la electricidad, y que se conoce con el
nombre de Ley de Hopkinson También se dedicó al estudio de los sistemas de
iluminación, mejorando su eficiencia, así como al estudio de
los condensadores. Profundizó en los problemas de la teoría electromagnética,
propuestos por James Clerk Maxwell. En 1883 dio a conocer el principio de
los motores síncronos.

Heinrich Rudolf Hertz: demostración de las ecuaciones de Maxwell y la teoría


electromagnética de la luz (1887)

Heinrich Rudolf Hertz

El físico alemán Heinrich Rudolf Hertz (1857-1894) demostró la existencia de


las ondas electromagnéticas predichas por las ecuaciones de Maxwell. Fue el
primer investigador que creó dispositivos que emitían ondas radioeléctricas y
también dispositivos que permitía detectarlas. Hizo numerosos experimentos
sobre su modo y velocidad de propagación (hoy conocida como velocidad de la
luz), en los que se fundamentan la radio y la telegrafía sin hilos, que él mismo
descubrió. En 1887 descubrió el efecto fotoeléctrico. La unidad de medida de
la frecuencia fue llamada Hertz (símbolo Hz) en su honor, castellanizada
como Hercio.

George Westinghouse: el suministro de corriente alterna (1886)


George Westinghouse

El inventor e industrial norteamericano George Westinghouse (1846-1914) se


interesó inicialmente por los ferrocarriles (freno automático de aire, sistema de
señales ferroviarias, aguja de cruce).Posteriormente con la ayuda de Nikolas
Tesla dedicó sus investigaciones hacia la electricidad, siendo el principal
responsable de la adopción de la corriente alterna para el suministro de energía
eléctrica en Estados Unidos. En ese empeño tecnológico y comercial hubo de
vencer la oposición del popular inventor Thomas Alva Edison, que basaba sus
investigaciones y expansión comercial en la corriente continua y llegaría a
sugerir la invención de la silla eléctrica de corriente alterna como estrategia en
esa competencia.

Westinghouse compró al científico croata Nikola Tesla su patente para la


producción y transporte de corriente alterna, que impulsó y desarrolló.
Posteriormente perfeccionó el transformador, desarrolló un alternador y adaptó
para su utilización práctica el motor de corriente alterna inventado por Tesla.
En 1886 fundó la compañía eléctrica Westinghouse Electric & Manufacturing
Company, que contó en los primeros años con la decisiva colaboración de
Tesla, con quien logró desarrollar la tecnología necesaria para desarrollar
un sistema de suministro de corriente alterna. Westinghouse también desarrolló
un sistema para transportar gas natural, y a lo largo de su vida obtuvo más de
400 patentes, muchas de ellas de maquinaria de corriente alterna.

Nikola Tesla: desarrollo de máquinas eléctricas, la bobina de Tesla (1884-1891)


y el radiotransmisor (1893)
Estatua de Nikola Tesla en las cataratas del Niágara

El ingeniero e inventor de origen croata Nikola Tesla (1856-1943) emigró en


1884 a los Estados Unidos. Es reconocido como uno de los investigadores más
destacados en el campo de la energía eléctrica. El Gobierno de Estados
Unidos lo consideró una amenaza por sus opiniones pacifistas y sufrió el
maltrato de otros investigadores mejor reconocidos como Marconi o Edison.

Desarrolló la teoría de campos rotantes, base de los generadores y motores


polifásicos de corriente alterna. En 1887 logra construir el motor de inducción
de corriente alterna y trabaja en los laboratorios Westinghouse, donde concibe
el sistema polifásico para transmitir la electricidad a largas distancias. En 1893
consigue transmitir energía electromagnética sin cables, construyendo el
primer radiotransmisor (adelantándose a Guglielmo Marconi). Ese mismo año
en Chicago hizo una exhibición pública de la corriente alterna, demostrando su
superioridad sobre la corriente continua de Edison. Los derechos de estos
inventos le fueron comprados por George Westinghouse, que mostró el sistema
de generación y transmisión por primera vez en la World's Columbian
Exposition de Chicago de 1893. Dos años más tarde los generadores de
corriente alterna de Tesla se instalaron en la central experimental de energía
eléctrica de las cataratas del Niágara. Entre los muchos inventos de Tesla se
encuentran los circuitos resonantes de condensador más inductancia, los
generadores de alta frecuencia y la llamada bobina de Tesla, utilizada en el
campo de las comunicaciones por radio.

La unidad de inducción magnética del sistema MKS recibe el nombre


de Tesla en su honor.

Charles Proteus Steinmetz: la histéresis magnética (1892)

Charles Proteus Steinmetz

El ingeniero e inventor de origen alemán Charles Proteus Steinmetz (1865-


1923) es conocido principalmente por sus investigaciones sobre la corriente
alterna y por el desarrollo del sistema trifásico de corrientes alternas. También
inventó la lámpara de arco con electrodo metálico. Sus trabajos contribuyeron
en gran medida al impulso y utilización de la electricidad como fuente de
energía en la industria. En 1902 fue designado profesor de la Universidad de
Schenectady, Nueva York, donde permaneció hasta su muerte. Trabajó para la
empresa General Electric.

Wilhelm Conrad Röntgen: los rayos X (1895)

Wilhelm Conrad Röntgen

El físico alemán Wilhelm Conrad Röntgen (1845-1923). Utilizando un tubo de


Crookes, fue quien produjo en 1895 la primera radiación electromagnética en
las longitudes de onda correspondientes a los actualmente llamados Rayos X.
Gracias a su descubrimiento fue galardonado con el primer Premio Nobel de
Físicaen 1901. El premio se concedió oficialmente: "en reconocimiento de los
extraordinarios servicios que ha brindado para el descubrimiento de los
notables rayos que llevan su nombre." Sin embargo, Röntgen no quiso que los
rayos llevaran su nombre aunque en Alemania el procedimiento de la
radiografía se llama "röntgen" debido al hecho de que los verbos alemanes
tienen la desinencia "en". Los rayos X se comienzan a aplicar en todos los
campos de la medicina entre ellos el urológico. Posteriormente otros
investigadores utilizaron la radiología para el diagnóstico de la enfermedad
litiásica. Es uno de los puntos culminantes de la medicina de finales del siglo
XIX, sobre el cual se basaron numerosos diagnósticos de
entidades nosológicas, hasta ese momento difíciles de diagnosticar, y siguieron
dándose desarrollos posteriores en el siglo XX y hasta nuestros días (Véase la
sección Electromedicina).

En su honor recibe su nombre la unidad de medida de la exposición a la


radiación, establecida en 1928: Roentgen (unidad).

Michael Idvorsky Pupin: la bobina de Pupin (1894) y las imágenes de rayos X


(1896)
El físico y electrotécnico serbio Michael Idvorsky Pupin (1854-1935) desarrolló
en 1896 un procedimiento para obtener la fotografía rápida de una imagen
obtenida mediante rayos X, que solamente requería una exposición de una
fracción de segundo en lugar de una hora o más que se empleaba
anteriormente. Entre sus numerosos inventos destaca la pantalla
fluorescente que facilitaba la exploración y registro de las imágenes
radiológicas obtenidas con los rayos X. También desarrolló en 1894 un sistema
para aumentar en gran medida el alcance de las comunicaciones telefónicas a
través de líneas de hilo de cobre, mediante la inserción a intervalos regulares a
lo largo de la línea de transmisión de unas denominadas bobinas de carga.
Estas bobinas reciben en su honor el nombre de bobina de Pupin y el método
también se denomina pupinización.

Joseph John Thomson: los rayos catódicos (1897)

Joseph John Thomson

El físico inglés Joseph John Thomson (1856-1940) descubrió que los rayos
catódicos podían desviarse aplicando un campo magnético perpendicular a su
dirección de propagación y calculó las leyes de dicha desviación. Demostró que
estos rayos estaban constituidos por partículas atómicas de carga negativa que
llamó corpúsculos y hoy en día conocemos como electrones. Demostró que la
nueva partícula que había descubierto era aproximadamente mil veces más
ligera que el hidrógeno. Esta fue la primera identificación de partículas
subatómicas, con las grandes consecuencias que esto tuvo en el consiguiente
desarrollo de la ciencia y de la técnica. Posteriormente, midiendo la desviación
en campos magnéticos, obtuvo la relación entre la carga y la masa del electrón.
También examinó los rayos positivos y, en 1912, descubrió la manera de
utilizarlos para separar átomos de diferente masa. El objetivo se consiguió
desviando los rayos positivos con campos electromagnéticos (espectrometría
de masa). Así descubrió que el neón tiene dos isótopos (el neón-20 y el neón-
22). Todos estos trabajos sirvieron a Thomson para proponer una estructura
del átomo, que más tarde se demostró incorrecta, ya que suponía que las
partículas positivas estaban mezcladas homogéneamente con las negativas.
Thomson también estudió y experimentó sobre las propiedades eléctricas de
los gases y la conducción eléctrica a través de los mismos, y fue justamente
por esa investigación que recibió el Premio Nobel de Física en 1906.

Hermanos Lumière: el inicio del cine (1895)

Los Hermanos Lumière

A finales del siglo XIX varios inventores estuvieron trabajando en varios


sistemas que tenían un objetivo común: el visionado y proyección de imágenes
en movimiento. Entre 1890 y 1895, son numerosas las patentes que se
registran con el fin de ofrecer al público las primeras "tomas de vistas"
animadas. Entre los pioneros se encuentran los alemanes Max y Emil
Skladanowski, los estadounidenses Charles F. Jenkins, Thomas
Armat y Thomas Alva Edison (kinetoscopio), y los franceses hermanos
Lumière (cinematógrafo). Sin embargo, aunque ya existían películas no era
posible proyectarlas en una sala cinematográfica. El cinefue oficialmente
inaugurado con la primera exhibición pública, en París, el 28 de
diciembre de 1895. La conexión del nuevo invento con la electricidad no fue
inmediata, porque los movimientos mecánicos se producían manualmente (lo
que producía problemas de variación de la velocidad, pero también era
utilizado como parte de los efectos especiales); mientras que la luz de las
primeras linternas provenía de una llama generada por la combustión de éter y
oxígeno. Pero usar una llama junto al celuloide (que era empleado como
soporte para las películas, y que es muy inflamable) constituía una fuente
constante de graves peligros para proyeccionistas y espectadores, por lo que
se buscaron sustitutos a la fuente luminosa. Al extenderse las redes eléctricas
se empleó el arco eléctrico incandescente. Inicialmente se usaban
dos electrodos de carbón alimentados con una corriente continua, uno con
carga positiva y otra con carga negativa. En la actualidad se realiza el paso de
la corriente continua a través de dos conductores, encerrados en una cápsula
de gas, normalmente xenón. Estas lámparas de xenón llevan en su interior dos
electrodos entre los que salta el arco voltaico que produce la luz. En cuanto a la
motorización eléctrica del funcionamiento de la cámara y del proyector se hizo
ineludible con el tiempo, sobre todo tras el paso al cine sonoro (primera
proyección experimental en París, 1900, y de un modo eficaz en Nueva
York, 1923, siendo la primera película El cantante de jazz, 1927), lo que
implicaba también a las tecnologías del registro y reproducción del sonido,
inicialmente obtenido a partir de una banda lateral de opacidad variable
detectada por una celda fotoeléctrica (la banda sonora). A partir de entonces
surgió el concepto de medio audiovisual.

La tecnología del cine ha evolucionado mucho hasta el cine digital del siglo
XXI y simultáneamente ha evolucionado el lenguaje cinematográfico,
incluyendo las convenciones del género y los géneros cinematográficos. Más
trascendente aún ha sido la evolución conjunta de cine y sociedad, y el
surgimiento de distintos movimientos cinematográficos, cinematografías
nacionales, etc. En Estados Unidos, Edison fue el máximo impulsor del cine,
consolidando una industria en la que deseaba ser el protagonista indiscutible al
considerarse como el único inventor y propietario del nuevo espectáculo.
En España, la primera proyección la ofreció un enviado de los Lumière
a Madrid, el 15 de mayo de 1896.

Guglielmo Marconi: la telegrafía inalámbrica (1899)

Guglielmo Marconi

El ingeniero y físico italiano Guglielmo Marconi (1874-1937), es conocido,


principalmente, como el inventor del primer sistema práctico de señales
telegráficas sin hilos, que dio origen a la radio actual. En 1899 logró establecer
comunicación telegráfica sin hilos a través del canal de la
Mancha entre Inglaterra y Francia, y en 1903 a través del océano
Atlántico entre Cornualles, y Saint John's en Terranova, Canadá.
En 1903 estableció en los Estados Unidos la estación WCC, en cuya
inauguración cruzaron mensajes de salutación el presidente Theodore
Roosevelt y el rey Eduardo VIII de Inglaterra. En 1904 llegó a un acuerdo con el
Servicio de Correos británico para la transmisión comercial de mensajes por
radio. Las marinas italiana y británica pronto adoptaron su sistema y
hacia 1907había alcanzado tal perfeccionamiento que se estableció un servicio
trasatlántico de telegrafía sin hilos para uso público. Para la telegrafía fue un
gran impulso el poder usar el código Morse sin necesidad de cables
conductores.

Aunque se le atribuyó la invención de la radio, ésta fue posible gracias a una de


las patentes de Nikola Tesla, tal y como fue reconocido por la alta corte de los
Estados Unidos, seis meses después de la muerte de Tesla, hacia el año 1943.
También inventó la antena Marconi. En 1909 Marconi recibió, junto con el físico
alemán Karl Ferdinand Braun, el Premio Nobel de Física por su trabajo.

Peter Cooper Hewitt: la lámpara de vapor de mercurio (1901-1912)

El ingeniero eléctrico e inventor estadounidense Peter Cooper Hewitt (1861-


1921) se hizo célebre por la introducción de la lámpara de vapor de mercurio,
uno de los más importantes avances en iluminación eléctrica. En la década
de 1890 trabajó sobre las experimentaciones realizadas por los
alemanes Julius Plücker y Heinrich Geissler sobre el fenómeno fluorescente, es
decir, las radiaciones visibles producidas por una corriente eléctrica que pasa a
través de un tubo de cristal relleno de gas. Los esfuerzos de Hewitt se
encaminaron a hallar el gas que resultase más apropiado para la producción de
luz, y lo encontró en el mercurio. La luz obtenida, por este método, no era apta
para uso doméstico, pero encontró aplicación en otros campos de la industria,
como en medicina, en la esterilización de agua potable y en el revelado de
películas. En 1901 inventó el primer modelo de lámpara de mercurio (aunque
no registró la patente hasta 1912). En 1903 fabricó un modelo mejorado que
emitía una luz de mejor calidad y que encontró mayor utilidad en el mercado. El
desarrollo de las lámparas incandescentes de filamento de tungsteno, a partir
de la década de 1910, supuso una dura competencia para la lámpara de
Hewitt, ya que, a pesar de ser ocho veces menos eficientes que esta, poseían
una luminosidad mucho más atractiva.

Gottlob Honold: el magneto de alta tensión, la bujía (1902) y los faros


parabólicos (1913)

Gottlob Honold
El ingeniero alemán Gottlob Honold (1876-1923), que trabajaba en la
empresa Robert Bosch, fue el primero que fabricó una bujía económicamente
viable que, conectada a una magneto de alta tensión, hizo posible el desarrollo
de los motores de combustión interna de ciclo Otto con velocidades de giro de
varios miles de revoluciones por minuto y elevadas potencias específicas. Una
bujía es el elemento donde se produce una chispa provocando el encendido de
la mezcla de combustible y aire en los cilindros de un motor de ciclo Otto. Las
primeras patentes para la bujía datan de Nikola Tesla (Patente USPTO nº
609,250 en la que se diseña un sistema temporizado de ignición repetida, en el
año 1898), casi al mismo tiempo que Frederik Richard Simms (GB
24859/1898, 1898) y Robert Bosch (GB 26907/1898). Karl Benz también
inventó su propia versión de bujía. Sin embargo, la bujía de Honold de 1902 era
comercialmente viable, de alta tensión y podía realizar un mayor número de
chispas por minuto, razón por la que fue adoptada por Daimler. La bujía tiene
dos funciones primarias: producir la ignición de la mezcla de aire y combustible
y disipar parte del calor de la cámara de combustión hacia el bloque motor
por conducción térmica. Las bujías se clasifican por lo que se conoce como
rango térmico en función de su conductancia térmica. Las bujías transmiten
energía eléctrica que convierten al combustible en un sistema que libera
energía. Una cantidad suficiente de voltaje se debe de proveer al sistema de
ignición para que pueda generar la chispa a través de la calibración de la bujía.

En 1913, Honold participó en el desarrollo de los faros parabólicos. Aunque se


habían utilizado anteriormente algunos sistemas de alumbrado para la
conducción nocturna, los primeros faros apenas alumbraban y servían poco
más que como sistema de señalización. Honold concibió la idea de colocar
espejos parabólicos detrás de las lámparas para concentrar el haz luminoso, lo
que mejoraba la iluminación del camino sin necesidad de usar un sistema
eléctrico más potente.

Los cambios de paradigma del siglo XX

El efecto fotoeléctrico ya había sido descubierto y descrito por Heinrich


Hertz en 1887. No obstante, carecía de explicación teórica y parecía ser
incompatible con las concepciones de la física clásica. Esa explicación teórica
solo fue posible con la obra de Albert Einstein (entre los famosos artículos
de 1905) quien basó su formulación de la fotoelectricidad en una extensión del
trabajo sobre los cuantos de Max Planck. Más tarde Robert Andrews
Millikan pasó diez años experimentando para demostrar que la teoría de
Einstein no era correcta pero terminó demostrando que sí lo era. Eso permitió
que tanto Einstein como Millikan recibiesen el premio Nobel en 1921 y 1923
respectivamente.
En 1893 Wilhelm Weber logró combinar la formulación de Maxwell con las
leyes de la termodinámica para tratar de explicar la emisividad del
llamado cuerpo negro, un modelo de estudio de la radiación electromagnética
que tendrá importantes aplicaciones en astronomía y cosmología.

En 1911 se prueba experimentalmente el modelo atómico de Ernest


Rutherford (núcleo con masa y carga positiva y corona de carga negativa),
aunque tal configuración había sido predicha en 1904 por el japonés Hantarō
Nagaoka, cuya contribución había pasado desapercibida.

La llamada Gran Ciencia ligada a la investigación atómica necesitó superar


retos tecnológicos cuantitativamente impresionantes, pues era necesario hacer
chocar partículas con el núcleo atómico con cada vez mayor energía. Esta fue
una de las primeras carreras tecnológicas del siglo XX y que,
independientemente del origen nacional de las ideas o procesos puestos en
práctica (muchos de ellos europeos: alemanes, austrohúngaros, italianos,
franceses , belgas o británicos), fueron ganadas por el eficaz e
inquietante complejo científico-técnico-productivo-militar de los Estados Unidos.
En 1928 Merle Tuve utilizó un transformador Tesla para alcanzar los tres
millones de voltios. En 1932 John Cockcroft y Ernest Walton observaron la
desintegración de átomos de litio con un multiplicador voltaico que alcanzaba
los 125 000 voltios. En 1937 Robert van de Graaff construyó generadores de
cinco metros de altura para generar corrientes de 5 millones de voltios. Ernest
Lawrence, inspirado por el noruego Rolf Wideröe, construyó
entre 1932 y 1940 sucesivos y cada vez mayores ciclotrones, confinadores
magnéticos circulares, para averiguar la estructura de las partículas
elementales a base de someterlas a choques a enormes velocidades.

Los quarks (bautizados así en 1963 y descubiertos sucesivamente en los años


1970 y hasta fechas tan próximas como 1996), así como las particularidades de
su carga eléctricaaún son una incógnita de la física de hoy en día.

La industria eléctrica crece con la sociedad de consumo de masas y pasa a la


fase del capitalismo monopolista de las grandes
corporaciones multinacionales de tipo holding, como las
norteamericanas General Electric (derivada de la compañía de Edison)
y Westinghouse Electric (derivada de la de Westinghouse y Tesla), la Marconi
Company (más puramente multinacional que italiana), las
alemanas AEG, Telefunken, Siemens AG y Braun (esta última, más tardía,
debe su nombre a Max Braun, no al físico Carl Ferdinand Braun) o las
japonesas Mitsubishi, Matsushita (Panasonic) Sanyo o Sony (éstas últimas
posteriores a la segunda guerra mundial). Incluso en países pequeños, pero
desarrollados, el sector eléctrico y la electrónica de consumo tuvo presencia
temprana y destacada en los procesos de concentración industrial, como son
los casos de la holandesa Philips y la finlandesa Nokia.
Hendrik Antoon Lorentz: Las transformaciones de Lorentz (1900) y el efecto
Zeeman (1902)

Lorentz con Einstein en 1921

El físico holandés Hendrik Antoon Lorentz (1853-1928) realizó un gran número


de investigaciones en los campos de la termodinámica, la radiación,
el magnetismo, la electricidad y la refracción de la luz, entre las que destaca el
estudio de la expresión de las ecuaciones de Maxwell en sistemas inerciales y
sus consecuencias sobre la propagación de las ondas electromagnéticas.
Formuló, conjuntamente con George Francis FitzGerald, una explicación
del experimento de Michelson y Morley sobre la constancia de la velocidad de
la luz, atribuyéndola a la contracción de los cuerpos en la dirección de su
movimiento. Este efecto, conocido como contracción de Lorentz-FitzGerald,
sería luego expresado como las transformaciones de Lorentz, las que dejan
invariantes las ecuaciones de Maxwell, posterior base del desarrollo de
la teoría de la relatividad. Nombró a Pieter Zeeman su asistente personal,
estimulándolo a investigar el efecto de los campos magnéticos sobre las
transiciones de spin, lo que lo llevó a descubrir lo que hoy en día se conoce con
el nombre de efecto Zeeman, base de la tomografía por resonancia magnética
nuclear. Por este descubrimiento y su explicación, Lorentz compartió en 1902
el Premio Nobel de Física con Pieter Zeeman

Albert Einstein: El efecto fotoeléctrico (1905)

Albert Einstein Parque de las Ciencias de Granada


Al alemán nacionalizado norteamericano Albert Einstein (1879 – 1955) se le
considera el científico más conocido e importante del siglo XX. El resultado de
sus investigaciones sobre la electricidad llegó en 1905 (fecha trascendental que
se conmemoró en el Año mundial de la física 2005), cuando escribió cuatro
artículos fundamentales sobre la física de pequeña y gran escala. En ellos
explicaba el movimiento browniano, el efecto fotoeléctrico y desarrollaba
la relatividad especial y la equivalencia entre masa y energía.

El efecto fotoeléctrico consiste en la emisión de electrones por un material


cuando se le ilumina con radiación electromagnética (luz visible o ultravioleta,
en general). Ya había sido descubierto y descrito por Heinrich Hertz en 1887,
pero la explicación teórica no llegó hasta que Albert Einstein le aplicó una
extensión del trabajo sobre los cuantos de Max Planck. En el artículo dedicado
a explicar el efecto fotoeléctrico, Einstein exponía un punto de vista heurístico
sobre la producción y transformación de luz, donde proponía la idea
de quanto de radiación (ahora llamados fotones) y mostraba cómo se podía
utilizar este concepto para explicar el efecto fotoeléctrico. Una explicación
completa del efecto fotoeléctrico solamente pudo ser elaborada cuando
la teoría cuántica estuvo más avanzada. A Albert Einstein se le concedió
el Premio Nobel de Física en 1921.

El efecto fotoeléctrico es la base de la producción de energía eléctrica por


radiación solar y de su aprovechamiento energético. Se aplica también para la
fabricación de células utilizadas en los detectores de llama de las calderas de
las grandes usinas termoeléctricas. También se utiliza en diodos fotosensibles
tales como los que se utilizan en las células fotovoltaicas y
en electroscopios o electrómetros. En la actualidad (2008) los materiales
fotosensibles más utilizados son, aparte de los derivados del cobre(ahora en
menor uso), el silicio, que produce corrientes eléctricas mayores.

Robert Andrews Millikan: El experimento de Millikan (1909)

Robert Andrews Millikan


El físico estadounidense Robert Andrews Millikan (1868-1953) es conocido
principalmente por haber medido la carga del electrón, ya descubierta por J. J.
Thomson. Estudió en un principio la radioactividad de los minerales de uranio y
la descarga en los gases. Luego realizó investigaciones sobre radiaciones
ultravioletas.

Mediante su experimento de la gota de aceite, también conocido


como experimento de Millikan, determinó la carga del electrón: 1,602 × 10-
19 coulomb. La carga del electrón es la unidad básica de cantidad
de electricidad y se considera la carga elemental porque todos los cuerpos
cargados contienen un múltiplo entero de la misma. El electrón y
el protón tienen la misma carga absoluta, pero de signos opuestos.
Convencionalmente, la carga del protón se considera positiva y la del electrón
negativa. Entre sus otras aportaciones a la ciencia destacan su importante
investigación sobre los rayos cósmicos, como él los denominó, y sobre los
rayos X, así como la determinación experimental de la constante de Planck,
midiendo la frecuencia de la luz y la energía de los electrones liberados en
el efecto fotoeléctrico. En 1923 fue galardonado con el Premio Nobel de
Física por sus trabajos para determinar el valor de carga del electrón y el efecto
fotoeléctrico.

Heike Kamerlingh Onnes: Superconductividad (1911)

Heike Kamerlingh Onnes

El físico holandés Heike Kamerlingh Onnes (1853-1926) se dedicó


principalmente al estudio de la física a bajas temperaturas, realizando
importantes descubrimientos en el campo de la superconductividad eléctrica,
fenómeno que sucede cuando algunos materiales están a temperaturas
cercanas al cero absoluto. Ya en el siglo XIX se llevaron a cabo diversos
experimentos para medir la resistencia eléctrica a bajas temperaturas,
siendo James Dewar el primer pionero en este campo. Sin embargo, la
superconductividad como tal no se descubriría hasta 1911, año en que Onnes
observó que la resistencia eléctrica del mercurio desaparecía bruscamente al
enfriarse a 4K (-269 °C), cuando lo que se esperaba era que disminuyera
gradualmente. En 1913 fue galardonado con el Premio Nobel de Física por, en
palabras del comité, "sus investigaciones en las características de la materia a
bajas temperaturas que permitieron la produ
producción del helio líquido".

Vladimir Zworykin: La televisión (1923)


(1923

Diseño de la patente del iconoscopio de Vladimir Zworykin.

El ingeniero ruso Vladimir Zworykin (1889-1982)1982) dedicó su vida al desarrollo


desar de
la televisión, la electrónica y la óptica.. Desde muy joven estaba persuadido de
que la solución práctica de la televisión no sería aportada por un sistema
mecánico, sino por la puesta a punto de un procedimiento que utilizara los
tubos de rayos catódicos.. Emigró a Estados Unidos y empezó a trabajar en los
laboratorios de la Westinghouse Electric and Manufacturing
Manufacturing Company,
en Pittsburg.. En la Westinghouse tuvo libertad para continuar con sus
proyectos personales, es decir, sus trabajos sobre la televisión, especialmente
sobre el iconoscopio (1923), un dispositivo que convertía imágenes ópticas en
señales eléctricas. Otro de sus inventos, que posibilitó una televisión
enteramente electrónica, fue el kinescopio que transformaba las señales
eléctricas del iconoscopio en imágenes visibles, aunque de baja resolución. Los
trabajos de investigación de Zworykin y de su grupo de colaboradores no se
limitaron sólo a la televisión, abarcaron muchos otros aspectos de la
electrónica, sobre todo los relacionados con la óptica. Su actividad en este
campo permitió el desarrollo de dispositivos tan importantes como los tubos de
imágenes y multiplicadores secundarios de emisión de distintos tipos. Un gran
número de aparatos electrónicos militares utilizados en la segunda guerra
mundial son resultado directo de las investigaciones de Zworykin y de sus
colaboradores, quien también participó en la invención del microscopio
electrónico.

Edwin Howard Armstrong: Frecuencia modulada (FM) (1935)


(1935)
Edwin Howard Armstrong

El ingeniero eléctrico estadounidense Edwin Howard Armstrong (1890-1954)


fue uno de los inventores más prolíficos de la era de la radio, al desarrollar una
serie de circuitos y sistemas fundamentales para el avance de este sistema de
comunicaciones. En 1912 desarrolló el circuito regenerativo, que permitía
la amplificación de las débiles señales de radio con poca distorsión, mejorando
mucho la eficiencia de los circuitos empleados hasta el momento. En 1918
desarrolló el circuito superheterodino, que dio un gran impulso a los receptores
de amplitud modulada (AM). En 1920 desarrolló el circuito super-regenerador,
muy importante en las comunicaciones con dos canales. En 1935 desarrolló el
sistema de radiodifusión de frecuencia modulada (FM) que, además de mejorar
la calidad de sonido, disminuyó el efecto de las interferencias externas sobre
las emisiones de radio, haciéndolo muy inferior al del sistema de amplitud
modulada (AM). El sistema de frecuencia modulada (FM), que es hoy el más
empleado en radio y televisión, no se empezó a emplear comercialmente hasta
después de su muerte. Muchas invenciones de Armstrong fueron reclamadas
por otros en pleitos de patente.

Robert Watson-Watt: El radar (1935)

Robert Watson-Watt

El radar (acrónimo de radio detection and ranging, detección y medición de


distancias por radio) fue creado en 1935 y desarrollado principalmente en
Inglaterra durante la Segunda Guerra Mundial. Su mayor impulsor fue el
físico Robert Watson-Watt (1892-1973), director del Laboratorio de
Investigación de Radio. Ya en 1932, la Oficina Postal Británica publicó un
informe en el que sus científicos documentaron fenómenos naturales que
afectaban la intensidad de la señal electromagnética recibida: tormentas
eléctricas, vientos, lluvia y el paso de un aeroplano en la vecindad del
laboratorio. Arnold Wilkins (1907-1985), físico ayudante de Watson-Watts,
conoció este informe de manera accidental, conversando con la gente de la
Oficina Postal, que se quejaba por la interferencia. Cuando Wilkins sugirió la
posibilidad de utilizar el fenómeno de interferencia de ondas de radio para
detectar aviones enemigos, Watson-Watt lo comisionó inmediatamente para
trabajar en el cálculo de los aspectos cuantitativos.

El radar dio a la aviación británica una notable ventaja táctica sobre la alemana
durante la Batalla de Inglaterra, cuando aún era denominado RDF (Radio
Direction Finding). En la actualidad es una de las principales ayudas a la
navegación con que cuenta el control de tráfico aéreo de todo tipo, militar y
civil.

La segunda mitad del siglo XX: Era Espacial o Edad de la Electricidad

Después de la segunda guerra mundial, el mundo bipolar enfrentado a


la guerra fría entre los Estados Unidos y la Unión Soviética presenció la
frenética carrera de armamentos y la carrera espacial que impulsó de modo
extraordinario la competencia científica y tecnológica entre ambos países- En la
sociedad de consumo capitalista, orientada al mercado, algunos de estos
logros encontraron aplicación a la vida cotidiana como retorno tecnológico de lo
invertido en las áreas de investigación puntera; caso de algunos rubros de
la industria ligera y los servicios (terciarización), mientras que en el bloque
soviético la planificación estatal privilegiaba la industria pesada. La
reconstrucción de Europa Occidental y Japón permitió que en ambos espacios
se pudiera continuar a la vanguardia de la ciencia y la tecnología, además de
contribuir con la fuga de cerebros a los espacios centrales.

Al científico y el inventor individual, ahora reemplazados en prestigio por


el empresario schumpeteriano, le sucedieron los equipos científicos vinculados
a instituciones públicas o privadas, cada vez más interconectadas y
retroalimentadas en lo que se denomina investigación y desarrollo (I+D) o
incluso I+D+I (investigación, desarrollo e innovación). Los programas de
investigación se han hecho tan costosos, con tantas implicaciones y a tan largo
plazo que las decisiones que les afectan han de ser tomadas por instancias
políticas y empresariales de alto nivel, y su publicidad o su mantenimiento en
secreto (con fines estratégicos o económicos) constituyen un problema serio de
control social (con principios democráticos o sin ellos).

La segunda mitad del siglo XX se caracterizó, entre otras cosas, por la


denominada Revolución científico-técnica de la tercera revolución industrial,
con avances de las tecnologías(especialmente la electrónica y la medicina) y
las ciencias, que ha dado lugar al desarrollo de una numerosísima serie de
inventos -dependientes de la electricidad y la electrónica en su diseño y
funcionamiento- que transformaron la vida social, primero en las clases medias
de los países desarrollados, y posteriormente en todo el mundo con el proceso
de globalización. El desarrollo de las telecomunicaciones e internet permite
hablar de una sociedad de la información en la que, en los países
industrialmente más desarrollados las decisiones económicas (como consumir,
producir y distribuir), sociales (como el establecimiento de todo tipo
de relaciones personales, redes sociales y redes ciudadanas) y políticas (como
informarse y opinar, aunque la democracia electrónica sólo está esbozada) se
transmiten instantáneamente, lo que permitió a Marshall McLuhan hablar de
la Edad de la Electricidad.

La automatización (en estadios más avanzados la robótica, que aún no se ha


desarrollado plenamente) transformó radicalmente los procesos de trabajo
industrial. Es posible hablar ya no de una sociedad industrial opuesta a
la sociedad preindustrial, sino incluso una sociedad postindustrial basada en
parámetros completamente nuevos. Entre los inventos que han contribuido a la
base material de esa nueva forma de vida caben destacar: electrodomésticos,
electrónica digital, ordenadores, robótica, satélites artificiales de
comunicación, energía nuclear, trenes eléctricos, refrigeración y congelación de
alimentos, electromedicina, etc.

Ordenadores

ENIAC

1941 La primera computadora electrónica funcional de que se tiene noticia fue


la alemana Z3 de Konrad Zuse, construida en 1941 y destruida en los
bombardeos aliados de 1943. La utilización comercial de este tipo de aparatos,
que revolucionaron la gestión de la información y toda la vida social, económica
y científica, tuvo que esperar a los años cincuenta, tras su desarrollo en
Estados Unidos.
La británica Colossus (diseñada por Tommy Flowers en la Estación de
Investigación de la Oficina Postal) y la estadounidense Harvard Mark
I(construida por Howard H. Aiken en la Universidad de Harvard con subvención
de IBM entre 1939 y 1943), llegaron a tiempo de usarse en la fase final de
la Segunda Guerra Mundial; la primera en el descifrado de mensajes alemanes
y la segunda para el cálculo de tablas de balística.

Inmediatamente después de la guerra, el Electronic Numerical Integrator And


Computer (Computador e Integrador Numérico Electrónico, ENIAC)65 utilizado
por el Laboratorio de Investigación Balística del Ejército de los Estados
Unidos fue construido en 1946 en la Universidad de Pensilvania por John
Presper Eckert y John William Mauchly. Consumía una potencia eléctrica
suficiente para abastecer una pequeña ciudad, ocupaba una superficie de
167 m² y operaba con un total de 17 468 válvulas electrónicas o tubos de vacío,
7200 diodos de cristal, 1500 relés, 70 000 resistencias, 10 000 condensadores
y 5 millones de soldaduras. Pesaba 27 tn, medía 2,4 m x 0,9 m x 30 m;
utilizaba 1500 conmutadores electromagnéticos y relés; requería la operación
manual de unos 6000 interruptores, y su programa o software, cuando requería
modificaciones, tardaba semanas de instalación manual. La ENIAC podía
resolver 5000 sumas y 360 multiplicaciones en un segundo. Se desactivó
en 1955.

Le sustituyó en la misma institución la Electronic Discrete Variable Automatic


Computer (EDVAC),66 en 1949. A diferencia de la ENIAC, no era decimal,
sino binaria y tuvo el primer programa diseñado para ser almacenado. Este
diseño se convirtió en el estándar de arquitectura para la mayoría de las
computadoras modernas y un hito en la historia de la informática. A los
diseñadores anteriores se les había unido el gran matemático John von
Neumann. La EDVAC recibió varias actualizaciones, incluyendo un dispositivo
de entrada/salida de tarjetas perforadas en 1953, memoria adicional en un
tambor magnético en 1954 y una unidad de aritmética de punto flotante
en 1958. Dejó de estar en activo en 1961.

La UNIVAC I (UNIVersal Automatic Computer I, computadora automática


universal I), también debida a J. Presper Eckert y John William Mauchly, fue la
primera computadora comercial y la primera diseñada desde el principio para
su uso en administración y negocios. El primer UNIVAC fue entregado a
la Oficina de Censos de los Estados Unidos (United States Census Bureau)
en 1951 y fue puesto en servicio ese mismo año. Competía directamente con
las máquinas de tarjeta perforada hechas principalmente por IBM. Para facilitar
la compatibilidad de ambos tipos de máquina se construyó un equipo de
procesamiento de tarjetas fuera de línea, el convertidor UNIVAC de tarjeta a
cinta y el convertidor UNIVAC de cinta a tarjeta, para la transferencia de datos
entre las tarjetas y las cintas magnéticas que empleaba alternativamente.
IBM anunció en 1953 la primera producción a gran escala de una computadora,
el IBM 650: 2000 unidades desde 1954 hasta 1962. Era un diseño orientado
hacia los usuarios de máquinas contables anteriores, como
las tabuladoras electromecánicas (con tarjetas perforadas) o el modelo IBM
604. Pesaba alrededor de 900 kg, y su unidad de alimentación unos 1350.
Cada unidad estaba en un armario separado, de 1,5 x 0,9 x 1,8 metros.
Costaba 500 000 dólares, pero podía alquilarse por 3500 al mes.

La tercera generación de este tipo de máquinas se inició con IBM 360, la


primera en la historia en ser atacada con un virus informático. Comercializada a
partir de 1964, fue la primera que usaba el término byte para referirse a
8 bits (con cuatro bytes creaba una palabra de 32-bits). Su arquitectura de
computación fue la que a partir de este modelo siguieron todos los ordenadores
de IBM. El sistema también hizo popular la computación remota, con terminales
conectadas a un servidor, por medio de una línea telefónica. Fue una de las
primeras computadoras comerciales que usó circuitos integrados, y podía
realizar tanto análisis numéricos como administración o procesamiento de
archivos.

El Intel 4004 (i4004, primero de Intel), un CPU de 4 bits, fue lanzado en un


paquete de 16 pines CERDIP en 1971, siendo el primer microprocesador en un
simple chip, así como el primero disponible comercialmente. Daría paso a la
construcción de los ordenadores personales. El circuito 4004 fue construido
con 2300 transistores, y fue seguido el año siguiente por el primer
microprocesador de 8 bits, el 8008, que contenía 3300 transistores, y el 4040,
versión revisada del 4004. El CPU que comenzó la revolución
del microcomputador, sería el 8080, usado en el Altair 880. El microprocesador
es un circuito integrado que contiene todos los elementos necesarios para
conformar una "unidad central de procesamiento" (UCP o CPU: Central
Process Unit). En la actualidad este tipo de componente electrónico se
compone de millones de transistores, integrados en una misma placa de silicio.

Transistor, Electrónica digital y Superconductividad

Detalle de un circuito integrado


1948 La electrónica, que estudia y emplea sistemas cuyo funcionamiento se
basa en la conducción y el control del flujo microscópico de los electrones u
otras partículas cargadas eléctricamente, comenzó con el diodo de vacío
inventado por John Ambrose Fleming en 1904, dispositivo basado en el efecto
Edison. Con el tiempo las válvulas de vacío se fueron perfeccionando y
mejorando, apareciendo otros tipos y miniaturizándose. El paso esencial lo dio
el físico estadounidense Walter Houser Brattain (1902-1987), incorporado en
1929 a los laboratorios Bell, donde fue partícipe junto con John Bardeen (1908-
1991) -incorporado en 1945- y William Bradford Shockley del invento de un
pequeño dispositivo electrónico semiconductor que cumplía funciones
de amplificador, oscilador, conmutador o rectificador: el transistor. La palabra
elegida para denominarlo es la contracción en inglés de transfer
resistor ("resistencia de transferencia"). Sustituto de la válvula termoiónica de
tres electrodos o triodo, el primer transistor de puntas de contacto funcionó en
diciembre de 1947; se anunció por primera vez en 1948 pero no se terminó de
fabricar hasta 1952, tras lograr construir un dispositivo con germanio el 4 de
julio de 1951, culminando así su desarrollo. El transistor de unión
bipolar apareció algo más tarde, en 1949, y es el dispositivo utilizado
actualmente para la mayoría de las aplicaciones electrónicas. Sus ventajas
respecto a las válvulas son entre otras menor tamaño y fragilidad, mayor
rendimiento energético, menores tensiones de alimentación y consumo de
energía. El transistor no funciona en vacío como las válvulas, sino en un estado
sólido semiconductor (silicio), razón por la que no necesitan centenares de
voltios de tensión para funcionar.

El transistor ha contribuido, como ninguna otra invención, al gran desarrollo


actual de la electrónica y la informática, empleándose comercialmente en todo
tipo de aparatos electrónicos, tanto domésticos como industriales. La primera
aplicación de estos dispositivos se hizo en los audífonos. Por su trabajo con los
semiconductores y por el descubrimiento del transistor, Walter Houser Brattain
compartió con Shockley y Bardeen en 1956 el Premio Nóbel de Física.

La construcción de circuitos electrónicos permitió resolver muchos problemas


prácticos (control, procesado y distribución de información, conversión y
distribución de la energía eléctrica, etc.). En 1958 se desarrolló el
primer circuito integrado, que integraba seis transistores en un único chip, y en
1970 se desarrolló el primer microprocesador (Intel 4004).

En la actualidad, los campos de desarrollo de la electrónica son tan vastos que


se ha dividido en varias ciencias especializadas, partiendo de la distinción
entre electrónica analógica y electrónica digital; y en los campos de
la ingeniería electrónica, la electromecánica, la informática (diseño
de software para su control), la electrónica de control, las telecomunicaciones y
la electrónica de potencia.
En 1951 Bardeen, uno de los diseñadores del transistor, ingresó en
la Universidad de Illinois, nombrando asistente personal al físico Nick Holonyak,
el cual posteriormente diseñaría el primer Diodo LED en 1962. Trabajó junto
a Leon N. Cooper y John Robert Schrieffer para crear la teoría estándar de
la superconductividad, es decir, la desaparición de la resistencia eléctrica en
ciertos metales y aleaciones a temperaturas cercanas al cero absoluto. Por
estos trabajos compartió nuevamente, en 1972, el Premio Nobel de Física con
los físicos estadounidenses Leon N. Cooper y John R. Schrieffer. Esto hizo que
él fuera el primer científico que ganó dos premios Nobel en la misma disciplina.
Las aplicaciones de la superconductividad están todavía en las primeras fases
de su desarrollo, pero ya han permitido los electroimanes más poderosos (que
se usan en los trenes maglev, resonancia magnética nuclear y aceleradores de
partículas); circuitos digitales y filtros de radiofrecuencia y microondas para
estaciones base de telefonía móvil; o los magnetómetros más sensibles
(uniones Josephson, de los SQUIDs -dispositivos superconductores de
interferencia cuántica-).

El reto de la generación de electricidad

Centrales nucleares

Torres de refrigeración de la central nuclear de Cofrentes, España

1951 Una central nuclear es una instalación industrial empleada para


la generación de energía eléctrica a partir de energía nuclear, que se
caracteriza por el empleo de materiales fisionables que mediante reacciones
nucleares proporcionan calor. Este calor es empleado por un ciclo
termodinámico convencional para mover un alternador y producir energía
eléctrica. Las centrales nucleares constan de uno o varios reactores.

Se llama energía nuclear a aquella que se obtiene al aprovechar las reacciones


nucleares espontáneas o provocadas por el hombre. Estas reacciones se dan
en algunos isótopos de ciertos elementos químicos, siendo el más conocido de
este tipo de energía la fisión del uranio-235 (235U), con la que funcionan
los reactores nucleares. Sin embargo, para producir este tipo de energía
aprovechando reacciones nucleares pueden ser utilizados muchos otros
isótopos de varios elementos químicos, como el torio, el plutonio, el estroncio o
el polonio. Los dos sistemas con los que puede obtenerse energía nuclear de
forma masiva son la fisión nuclear y la fusión nuclear.

El 2 de diciembre de 1942, como parte del proyecto Manhattan dirigido por J.


Robert Oppenheimer, se construyó el Chicago Pile-1 (CP-1), primer reactor
nuclear hecho por el hombre (existió un reactor natural en Oklo).
El Departamento de Defensa de los Estados Unidos propuso el diseño y
construcción de un reactor nuclear utilizable para la generación eléctrica y
propulsión en los submarinos a dos empresas distintas
norteamericanas: General Electric y Westinghouse. Estas empresas
desarrollaron los reactores de agua ligera tipo BWR y PWR respectivamente.
Los mismos diseños de reactores de fisión se trasladaron a diseños
comerciales para la generación de electricidad. Los únicos cambios producidos
en el diseño con el transcurso del tiempo fueron un aumento de las medidas de
seguridad, una mayor eficiencia termodinámica, un aumento de potencia y el
uso de las nuevas tecnologías que fueron apareciendo.

El 20 de diciembre de 1951 fue el primer día que se consiguió generar


electricidad con un reactor nuclear (en el reactor americano EBR-I, con
una potencia de unos 100 kW), pero no fue hasta 1954 cuando se conectó a la
red eléctrica una central nuclear (fue la central nuclear rusa de Obninsk,
generando 5 MW con solo un 17 % de rendimiento térmico). La primera central
nuclear con un rendimiento comercial fue la británica de Calder Hall,
en Sellafield, abierta en 1956 con una capacidad de 50 MW (ampliada
posteriormente a 200 MW).70 El desarrollo de la energía nuclear en todo el
mundo experimentó a partir de ese momento un gran crecimiento, de forma
muy particular en Francia y Japón, donde la crisis del petróleo de 1973 influyó
definitivamente, ya que su dependencia en el petróleo para la generación
eléctrica era muy marcada. En 1986 el accidente de Chernóbil, en un
reactor RBMK de diseño ruso que no cumplía los requisitos de seguridad que
se exigían en occidente, acabó radicalmente con ese crecimiento. A partir de
entonces, con la caída del bloque del este desde 1989, el movimiento
antinuclear, que se opone por un lado al arma nuclear y por otra parte a la
utilización de la energía nuclear, se ha visto desplazado de la vanguardia
del movimiento ecologista por otras cuestiones, como el cambio climático.

En octubre de 2007 existían 439 centrales nucleares en todo el mundo que


generaron 2,7 millones de MWh en 2006. La potencia instalada en 2007 era de
370.721 MWe. Aunque solo 30 países en el mundo poseen centrales
nucleares, aproximadamente el 15 % de la energía eléctrica generada en el
mundo se produce a partir de energía nuclear, aunque el porcentaje está
actualmente en disminución. La mayoría de los países con centrales nucleares
han suspendido nuevas construcciones debido a los problemas de disposición
final de los combustibles nucleares, cuya actividad (y riesgos para la vida
humana) perdura durante muchos miles de años. Algunos científicos, como el
galardonado físico Freeman Dyson, sostienen que la exageración de los
beneficios de la energía nuclear provienen de una combinación de factores
económicos y del sentido de culpa por los bombardeos atómicos sobre
Hiroshima y Nagasaki.

Combustibles fósiles y fuentes renovables

El primer uso industrial de la energía hidráulica para la generación de


electricidad alimentaba mediante una turbina fueron dieciséis lámparas de arco
de la fábrica Wolverine en Grand Rapids (Estados Unidos, 1880). La primera
central hidroeléctrica entró en funcionamiento ese mismo año
en Northumberland, Gran Bretaña, y la primera ciudad en tener un suministro
eléctrico fue Godalming, en Surrey (Inglaterra), ese mismo año, a corriente
alterna con un alternador Siemens y una dinamo conectada a una rueda
hidráulica, que funcionó sólo tres años.

Dos años más tarde se abrió la primera central hidráulica estadounidense (río
Fox, Appleton, Wisconsin). El mismo año (1882), Edison abría la primera
central eléctrica urbana comercial. No utilizaba fuentes renovables, sino
la generación térmica a petróleo (con tres veces mayor eficiencia que los
modelos anteriores, no comerciales), en Pearl Street (Nueva York), de 30 kW
de potencia a 220-110 V de corriente continua. En 1895, su competidor,
Westinghouse, abre la primera central de corriente alterna en el Niágara.75 La
desconfianza de Edison hacia la corriente alterna se mantuvo hasta 1892 y
hasta finales del siglo XIX se usaba principalmente corriente continua para la
iluminación. El desarrollo del generador eléctrico y el perfeccionamiento de
la turbina hidráulica respondieron al aumento de la demanda de electricidad del
siglo XX, de modo que desde 1920 el porcentaje la hidroelectricidad en la
producción total de electricidad era ya muy significativo. Desde entonces la
tecnología de las principales instalaciones no ha variado sustancialmente.
Una central hidroeléctrica es aquella que se utiliza para la generación de
energía eléctrica mediante el aprovechamiento de la energía potencial del agua
embalsada en una presa situada a más alto nivel que la central. El agua se
lleva por una tubería de descarga a la sala de máquinas de la central, donde
mediante enormes turbinas hidráulicas se produce la generación de energía
eléctrica en alternadores.

Las dos características principales de una central hidroeléctrica, desde el punto


de vista de su capacidad de generación de electricidad son:
La potencia, que es función del desnivel existente entre el nivel medio del
embalse y el nivel medio de las aguas debajo de la central, y del caudal
máximo turbinable, además de las características de la turbina y del generador.

La energía garantizada en un lapso de tiempo determinado, generalmente un


año, que está en función del volumen útil del embalse, de la pluviometría anual
y de la potencia instalada.

Esta forma de obtener energía eléctrica no está libre problemas


medioambientales al necesitar la construcción de grandes embalses en los que
acumular el agua, modificando el paisaje y los anteriores usos, tanto naturales
como humanos, del agua y el entorno afectado. Proyectos gigantescos (presa
de Asuán en Egipto, de Itaipú entre Brasil y Paraguay, o de las Tres
Gargantas en China) tienen repercusiones de todo tipo, e incluso su viabilidad
a largo plazo es cuestionada. Las minicentrales hidráulicas suelen ser mejor
consideradas desde ese punto de vista, aunque su capacidad de generación es
mucho más limitada.

Capacidad eólica mundial total instalada 1996-2012 [MW]. Fuente: GWEC

Actualmente se encuentra en desarrollo la explotación comercial de la


conversión en electricidad del potencial energético que tiene el oleaje del mar,
en las llamadas Centrales mareomotrices. Estas utilizan el flujo y reflujo de
las mareas. En general pueden ser útiles en zonas costeras donde la amplitud
de la marea sea amplia, y las condiciones morfológicas de la costa permitan la
construcción de una presa que corte la entrada y salida de la marea en
una bahía. Se genera energía tanto en el momento del llenado como en el
momento del vaciado de la bahía.

Otras energías renovables, como la energía solar; tienen una historia muy
anterior a su utilización como generadoras de electricidad, e incluso en este
campo surgieron tecnologías ya en el siglo XIX: solar con Edmund
Becquerel en 1839 y Augustin Mouchet en 1861; eólica desde 1881, aunque el
desarrollo de rotores verticales eficaces llegó con Klemin, Savoius y Darrieus,
diseñados en 1925, 1929y 1931).

El impulso actual de las energías renovables proviene de las necesidades


energéticas de la crisis del petróleo de 1973 y, más recientemente, del hecho
de que no emitan gases causantes de efecto invernadero, contrariamente a
los combustibles fósiles (carbón, petróleo o gas natural). La producción de
electricidad solar y, sobre todo, eólica está en fuerte auge aunque aún no ha
desarrollado todo su potencial.

Las tecnologías utilizadas en las centrales termoeléctricas que utilizan


combustibles fósiles se han perfeccionado, tanto para obtener una mayor
eficiencia energética (ciclo combinado) como para reducir su impacto
contaminante (lluvia ácida). Sin embargo, la supresión de las emisiones
de gases de efecto invernadero mediante la captura y almacenamiento de
carbono) aún no ha sido desarrollada industrialmente y constituye un tema
controvertido.

La pila de combustible ligada a las tecnologías del hidrógeno es uno de los


últimos diseños propuestos para la sustitución de las energías tradicionales.

Robótica y máquinas CNC.

1952 Una de las innovaciones más importantes y trascendentales en la


producción de todo tipo de objetos en la segunda mitad del siglo XX ha sido la
incorporación de robots, autómatas programables80y máquinas guiadas
por control numérico por computadora (CNC) en las cadenas y máquinas de
producción, principalmente en tareas relacionadas con la manipulación,
trasiego de objetos, procesos de mecanizado y soldadura. Estas innovaciones
tecnológicas han sido viables entre otras cosas por el diseño y construcción de
nuevas generaciones de motores eléctricos de corriente continua controlados
mediante señales electrónicas de entrada y salida, y el giro que pueden tener
en ambos sentidos, así como la variación de su velocidad de acuerdo con las
instrucciones contenidas en el programa de ordenador que los controla. En
estas máquinas se utilizan tres tipos de motores eléctricos: motores paso a
paso, servomotores o motores encoder y motores lineales. El primer desarrollo
en el área del control numérico por computadora (CNC) lo realizó el inventor
norteamericano John T. Parsons (Detroit 1913-2007)81 junto con su
empleado Frank L. Stulen, en la década de 1940, realizando la primera
demostración práctica de herramienta con movimiento programado en 1952.

La robótica es una rama de la tecnología (y que integra el álgebra,


los autómatas programables, las máquinas de estados, la mecánica,
la electrónica y la informática), que estudia el diseño y construcción de
máquinas capaces de desempeñar tareas repetitivas, tareas en las que se
necesita una alta precisión, tareas peligrosas para el ser humano o tareas
irrealizables sin intervención de una máquina. Esas máquinas,
los robots mantienen la conexión de retroalimentación inteligente entre el
sentido y la acción directa bajo el control de un ordenador previamente
programado con las tareas que tiene que realizar. Las acciones de este tipo de
robots son generalmente llevadas a cabo por motores o actuadores que
mueven extremidades o impulsan al robot. Hacia 1942, Isaac Asimov82 da una
versión humanizada a través de su conocida serie de relatos, en los que
introduce por primera vez el término robótica con el sentido de disciplina
científica encargada de construir y programar robots. Además, este autor
plantea que las acciones que desarrolla un robot deben ser dirigidas por una
serie de reglas morales, llamadas las Tres leyes de la robótica.

Los robots son usados hoy en día (2008) para llevar a cabo tareas sucias,
peligrosas, difíciles, repetitivas o embotadas para los humanos. Esto
usualmente toma la forma de un robot industrial usado en las líneas de
producción. Otras aplicaciones incluyen la limpieza de residuos
tóxicos, exploración espacial, minería, búsqueda y rescate de personas y
localización de minas terrestres. La manufactura continúa siendo el principal
mercado donde los robots son utilizados. En particular, robots articulados
(similares en capacidad de movimiento a un brazo humano) son los más
usados comúnmente. Las aplicaciones incluyen soldado, pintado y carga de
maquinaria. La industria automotriz ha tomado gran ventaja de esta nueva
tecnología donde los robots han sido programados para reemplazar el trabajo
de los humanos en muchas tareas repetitivas. Recientemente, se ha logrado un
gran avance en los robots dedicados a la medicina que utiliza robots de última
generación en procedimientos de cirugía invasiva mínima. La automatización
de laboratorios también es un área en crecimiento. Los robots parecen estar
abaratándose y empequeñeciéndose en tamaño, todo relacionado con la
miniaturización de los componentes electrónicos que se utilizan para
controlarlos. También, muchos robots son diseñados en simuladores mucho
antes de que sean construidos e interactúen con ambientes físicos reales.

Láser
En 1960 el físico norteamericano Charles Townes (1915 - 2015) realizó en
la Universidad de Columbia el descubrimiento que le proporcionaría su salto a
la fama científica: fue descrito como Microwave Amplification by Stimulated
Emission of Radiation (máser). Sin embargo fue el físico
norteamericano Gordon Gould (1920-2005) quien patentó los primeros láseres
para usos industriales y militares, a pesar de que hubo muchos pleitos porque
varios científicos estaban estudiando la posibilidad de tecnologías similares a
partir de las teorías desarrolladas por Einstein sobre la emisión estimulada de
radiación. Ello fue así porque Gould fue el científico que primero lo fabricó y le
puso el nombre: Light Amplification by Stimulated Emission of
Radiation (Amplificación de Luz por Emisión Estimulada de
Radiación, LASER)84 No obstante, fue a Charles Townes a quien le fue
concedido el premio Nobel de Física en 1964.

Un láser es un dispositivo que utiliza un efecto de la mecánica cuántica, la


emisión inducida o estimulada, para generar un haz de luz coherente de un
medio adecuado y con el tamaño, la forma y la pureza controlados. El tamaño
de los láseres varía ampliamente, desde diodos láser microscópicos con
numerosas aplicaciones, al láser de cristales dopados con neodimio con un
tamaño similar al de un campo de fútbol, usado para la fusión de confinamiento
inercial, la investigación sobre armamento nuclear u otros experimentos físicos
en los que se presenten altas densidades de energía. Desde su invención en
1960 se han vuelto omnipresentes y se pueden encontrar en miles de variadas
aplicaciones en cualquier sector de la sociedad actual, incluyendo campos tan
dispares como la electrónica de consumo y las tecnologías de la información
(sistemas de lectura digital de los discos duros, los CD y los DVD y del código
de barras), hasta análisis científicos y métodos de diagnóstico en medicina, así
como el mecanizado, soldadura o sistemas de corte en sectores industriales y
militares.

Electrificación de los ferrocarriles

Train à Grande Vitesse

Una de las aplicaciones más significativas de la electricidad fue la casi total


electrificación de los ferrocarriles en los países más industrializados. La primera
fase de este proceso, más generalizada que la segunda, fue la sustitución de
las locomotoras que utilizaban carbón, por las locomotoras llamadas diésel que
usan combustible obtenido del petróleo. Las locomotoras diésel-eléctricas
consisten básicamente en dos componentes: un motor diésel que mueve
un generador eléctrico y varios motores eléctricos (conocidos como motores de
tracción) que comunican a las ruedas (pares) la fuerza tractiva que mueve a la
locomotora. Generalmente hay un motor de tracción por cada eje, siendo
generalmente 4 o 6 en una locomotora típica. Los motores de tracción se
alimentan con corriente eléctrica y luego, por medio de engranajes , mueven
las ruedas. En el caso de las locomotoras diésel no hace falta que las vías
estén electrificadas, y ya se usan en casi todas las vías del mundo estén las
vías electrificadas o no.

El siguiente avance tecnológico fue la puesta en servicio de locomotoras


eléctricas directas, las que usan como fuente de energía la energía
eléctrica proveniente de una fuente externa, para aplicarla directamente a
motores de tracción eléctricos. Las locomotoras eléctricas requieren la
instalación de cables eléctricos de alimentación a lo largo de todo el recorrido,
que se sitúan a una altura por encima de los trenes a fin de evitar accidentes.
Esta instalación se conoce como catenaria. Las locomotoras toman la
electricidad por un trole, que la mayoría de las veces tiene forma
de pantógrafo y como tal se conoce. El coste de la instalación de alimentación
hace que la tracción eléctrica solamente sea rentable en líneas de gran tráfico,
o bien en vías con gran parte del recorrido en túnel bajo montañas o por debajo
del mar, con dificultades para la toma de aire para la combustión de los otros
tipos de motor. En los años 1980 se integraron como propulsores de vehículos
eléctricos ferroviarios los motores asíncronos, y aparecieron los sistemas
electrónicos de regulación de potencia que dieron el espaldarazo definitivo a la
elección de este tipo de tracción por las compañías ferroviarias. Las dificultades
de aplicar la tracción eléctrica en zonas con climatología extrema hacen que en
esos casos, se siga utilizando la tracción diésel, ya que la nieve intensa y su
filtración por ventiladores a las cámaras de alta tensión originan derivaciones
de circuitos eléctricos que dejan inservibles estas locomotoras mientras dure el
temporal. Las bajas temperaturas también afectan de diferente manera al cable
de contacto de la catenaria que pierde la conductividad durante intervalos de
tiempo. El hito de los trenes eléctricos lo constituyen los llamados trenes de alta
velocidad cuyo desarrollo ha sido el siguiente:

1964 El Shinkansen o tren bala japonés fue el primer tren de alta velocidad en
utilizar un trazado propio, y se inauguró para los Juegos Olímpicos de Tokio
1964. 1979 Un tren de levitación magnética se instaló por primera vez
en Hamburgo para la Exhibición Internacional del Transporte (IVA 79),
desarrollando patentes anteriores. Hubo pruebas posteriores de trenes
similares en Inglaterra y actualmente operan comercialmente líneas en Japón y
China. Se combinan con el sistema de monorraíl. 1981 El Tren de Gran
Velocidad (en francés: Train à Grande Vitesse), conocido como TGV, es un tipo
de tren eléctrico de alta velocidad desarrollado por la empresa
francesa Alstom para hacer inicialmente el recorrido entre París y Lyon. El TGV
es uno de los trenes más veloces del mundo, operando en algunos tramos a
velocidades de hasta 320 km/h teniendo el récord de mayor velocidad media en
un servicio de pasajeros y el de mayor velocidad en condiciones especiales de
prueba. En 1990 alcanzó la velocidad de 515,3 km/h, y en el 2007 superó su
propio registro al llegar a los 574,8 km/h en la línea París-Estrasburgo.

Electromedicina

1895. Los rayos X fueron descubiertos en 1895 por el físico alemán Wilhelm
Röntgen, quien descubrió que el bombardeo de átomos metálicos
con electrones de alta velocidad produce la emisión de radiaciones de gran
energía. Combinados con las tecnologías de la fotografía, los rayos X
permitieron obtener imágenes de partes interiores del cuerpo humano antes
inaccesibles sin mediar cirugía. A partir de ese momento se convirtieron en
imprescindibles medios de diagnóstico, formando parte esencial del campo
denominado electromedicina.

Su uso principal en diagnóstico médico, por ser las más fáciles de visualizar,
fue la observación de las estructuras óseas. A partir de la generalización de
esta práctica se desarrolló la radiología como especialidad médica que emplea
la radiografía como medio de diagnóstico, que sigue siendo el uso más
extendido de los rayos X. En desarrollos posteriores se añadieron la tomografía
axial computarizada (TAC, en 1967, por un equipo dirigido por los
ingenieros Godfrey Newbold Hounsfield y Allan M. Cormack, premios Nobel de
Medicina en 1979), la resonancia magnética (descubierta como principio
en 1938 y aplicada a la imagen de diagnóstico por Paul Lauterbur y Peter
Mansfield, premios Nobel de 2003) y la angiografía (utilizada desde 1927 por el
portugués Egas Moniz, ganador del premio Nobel en 1949, y desarrollada de
forma más segura por la técnica Seldinger desde 1953); así como la utilización
terapéutica de la radioterapia.

Los ultrasonidos fueron utilizados por primera vez en medicina por el


estadounidense George Ludwig, a finales de los años 1940, mientras que
la ecografía fue desarrollada en Suecia por los cardiólogos Inge Edler y Carl
Hellmuth Hertz (hijo y sobrino nieto de los famosos físicos), y en el Reino Unido
por Ian Donald y el equipo de ginecología del hospital de Glasgow.

Se aplican otras tecnologías electromédicas en la cardiología, tanto en


diagnóstico (electrocardiograma, utilizado desde 1911, que valió el premio
Nobel de 1924 a Willem Einthoven) como en tratamientos (desfibrilador)
y prótesis: (los marcapasos y el corazón artificial). También en áreas como los
problemas de audición (mediante los audífonos) o el diagnóstico y tratamiento
de problemas neurológicos y neurofisiológicos.

Se han equipado los quirófanos y unidades de rehabilitación y cuidados


intensivos (UVI) o (UCI) con equipos electrónicos e informáticos de alta
tecnología. Se han mejorado los equipamientos que realizan análisis clínicos y
se han desarrollado microscopios electrónicos de gran resolución.

Véanse también: resonancia magnética nuclear, Tomografía axial


computarizada, Electroterapia, Neurología y Rayos X.

Telecomunicaciones e Internet

1969 El auge de las telecomunicaciones empieza cuando se sitúan en


el espacio exterior los primeros satélites de comunicaciones, satélites
artificialessituados en órbita alrededor de la Tierra que transmiten ondas
electromagnéticas; pero este punto culminante tuvo su prehistoria: El
término telecomunicaciónfue definido oficialmente por primera vez
en 1932 durante una conferencia internacional que tuvo lugar en Madrid
("toda transmisión, emisión o recepción,
de signos, señales, escritos, imágenes, sonidos o informaciones de cualquier
naturaleza por hilo, radioelectricidad, medios ópticos u otros sistemas
electromagnéticos"). La base matemática sobre la que se desarrollan las
telecomunicaciones dependientes de la electricidad es muy anterior: fue
desarrollada por Maxwell, quien ya predijo que era posible propagar ondas por
el espacio libre utilizando descargas eléctricas (prefacio de Treatise on
Electricity and Magnetism, 1873), hecho que corroboró Heinrich Hertz con el
primer transmisor de radio generando radiofrecuencias entre 31 MHz y 1.25
GHz (1887). No obstante, el inicio de la era de la comunicación rápida a
distancia ya había comenzado en la primera mitad del siglo XIX con el telégrafo
eléctrico, al que se añadieron más tarde el teléfono y la revolución de la
comunicación inalámbrica con las ondas de radio. A principios del siglo
XX apareció el teletipo que, utilizando el código Baudot, permitía enviar y recibir
texto en algo parecido a una máquina de escribir.
En 1921 la wirephoto o telefoto permitió transmitir imágenes por teléfono (ya se
había hecho telegráficamente desde la Exposición Universal de Londres
de 1851 y comercialmente desde 1863), y a partir de entonces se comercializó
el fax por AT&T. Esta misma compañía norteamericana desarrolló
desde 1958 distintos tipos de aparatos digitales precedentes del módem para
las comunicaciones telefónicas, que más tarde se aplicaron a la transmisión de
datos entre computadoras y otros dispositivos. En los años 1960 comienza a
ser utilizada la telecomunicación en el campo de la informática con el uso
de satélites de comunicación y las redes de conmutación de paquetes.
Un satélite actúa básicamente como un repetidor situado en el espacio: recibe
las señales enviadas desde la estación terrestre y las reemite a otro satélite o
de vuelta a los receptores terrestres. Los satélites son puestos en órbita
mediante cohetes s espaciales que los sitúan circundando la Tierra a distancias
relativamente cercanas fuera de la atmósfera. Las antenas utilizadas
preferentemente en las comunicaciones vía satélites son las antenas
parabólicas,, cada vez más frecuentes en las terrazas y tejados de nuestras
ciudades. Tienen forma de parábola y la particularidad de que las señales que
inciden sobre su superficie se reflejan e inciden sobre el foco de la parábola,
donde se encuentra el elemento receptor.

Con la puesta en marcha de los satélites de comunicaciones ha sido posible


disponer de muchos canales de televisión, el impresionante
esionante desarrollo de
la telefonía móvil y de Internet.
Internet. Internet es un método de interconexión
descentralizada de redes de computadoras implementado en un conjunto
de protocolos denominado TCP/IP y garantiza que redes
físicas heterogéneas funcionen como una red lógica única, de alcance
alcance mundial.
Sus orígenes se remontan a 1969,, cuando se estableció la primera conexión de
computadoras, conocida como ARPANET, entre tre tres universidades
en California y una en Utah
Utah, EE. UU..

El siglo XXI está viviendo los comienzos de la interconexión total a la que


convergen las telecomunicaciones, a través de todo tipo de dispositivos cada
vez más rápidos, más compactos,
compactos, más poderosos y multifuncionales. Ya no es
necesario establecer enlaces físicos entre dos puntos para transmitir la
información de un punto a otro. Debido a la gran velocidad de propagación de
las ondas electromagnéticas, los mensajes enviados desde cualquier punto de
la superficie terrestre o de su atmósfera se reciben casi simultáneamente en
cualquier otro.

Ley de Ohm

V, I y R, los parámetros de la ley de Ohm


Oh

La ley de Ohm, postulada por el físico y matemático alemán Georg Simon


Ohm,, es una ley básica de los circuitos eléctricos. Establece que la diferencia
de potencial que aplicamos entre los extremos de un conductor determinado
es proporcional a la intensidad de la corriente que circula por el citado
conductor. Ohm completó la ley introduciendo la noción de resistencia eléctrica

La fórmula anterior se conoce como fórmula general de la ley de Ohm,12 y en


la mismaa la resistencia e a la intensidad de la corriente. Las unidades de esas
tres magnitudes en el sistema internacional de unidades son,
respectivamente, voltios (V), ohmios (Ω) y amperios (A).

En física, el término ley de Ohm se usa para referirse a varias generalizaciones


de la ley originalmente formulada por Ohm. El ejemplo más simple es:

donde J es la densidad de corriente en una localización dada en el material


resistivo, E es el campo eléctrico en esa localización, y σ(sigma) es un
parámetro dependiente del material llamado conductividad. Esta reformulación
de la ley de Ohm se debe a Gustav Kirchhoff

Introducción histórica

Retrato de Georg Simon Ohm

Georg Simon Ohm nació en Erlangen (Alemania) el 16 de marzo de 1789 en el


seno de una familia protestante, y desde muy joven trabajó en la cerrajería de
su padre, el cual también hacía las veces de profesor de su hijo. Tras su paso
por la universidad dirigió el Instituto Politécnico de Núremberg y dio clases
de física experimental en la Universidad de Múnich hasta el final de su vida.
Falleció en esta última ciudad el 6 de julio de 1854.
Poniendo a prueba su intuición en la física experimental consiguió introducir y
cuantificar la resistencia eléctrica. Su formulación de la relación
entre intensidad de corriente, diferencia de potencial y resistencia constituye la
ley de Ohm, por ello la unidad de resistencia eléctrica se denominó ohmio en
su honor.

Sufrió durante mucho tiempo la reticencia de los medios científicos europeos


para aceptar sus ideas pero finalmente la Real Sociedad de Londres lo premió
con la Medalla Copley en 1841 y la Universidad de Múnich le otorgó
la cátedra de Física en 1849.

En 1840 estudió las perturbaciones sonoras en el campo de la acústica


fisiológica (ley de Ohm-Helmholtz) y a partir de 1852 centró su actividad en los
estudios de carácter óptico, en especial en los fenómenos de interferencia.

Experimentos y artículos publicados

Balanza de torsión de Ohm

Años antes de que Ohm enunciara su ley, otros científicos habían realizado
experimentos con la corriente eléctrica y la tensión. Destaca el caso del
británico Henry Cavendish, que experimentó con la botella de Leyden en 1781
pero no llegó a publicar sus conclusiones, hasta que casi 100 años después, en
1879, James Clerk Maxwell las publicó.
En la actualidad disponemos de muchos instrumentos que nos permiten medir
con precisión la tensión (voltaje) y la corriente eléctrica pero en el siglo XIX
muchos dispositivos, tales como la pila Daniell y la pila de artesa, no estaban
disponibles. Los aparatos que medían la tensión y la corriente de la época no
eran suficientes para obtener lecturas precisas para el desarrollo de la fórmula
que George S. Ohm quería obtener.

Es por ello por lo que Ohm, mediante los descubrimientos que otros
investigadores realizaron anteriormente, creó y modificó dispositivos ya
fabricados para llevar a cabo sus experimentos. La balanza de
torsión de Coulomb es uno de estos aparatos; fue descrito por Ohm en su
artículo «Vorläufige Anzeige des Gesetzes, nach welchem Metalle die
Contactelectricität», publicado en 1825 en los Anales de la Física. Ohm incluyó
en la balanza una barra magnética gracias a los avances de Hans Christian
Ørsted, que en 1819 descubrió que un cable conductor por el que fluía una
corriente eléctrica desviaba una aguja magnética situada en sus proximidades.
Con esto y varios cables de distintas longitudes y grosor, una pila voltaica y
recipientes de mercurio, pudo crear un circuito en el que buscaba relacionar
matemáticamente la disminución de la fuerza electromagnética creada por una
corriente que fluye por un cable y la longitud de dicho cable.

Mediante este circuito llegó a encontrar una expresión que representaba


correctamente todo los datos obtenidos:

Esta relación la puso en entredicho el propio Georg Ohm; sin embargo fue la
primera expresión documentada que le llevó a su relación entre la corriente la
tensión y la resistencia de un circuito: la ley de Ohm, publicada en 1827 en su
artículo «El circuito galvánico, analizado matemáticamente» («Die galvanische
Kette, mathematisch bearbeitet»):

Este último artículo recibió una acogida tan fría que lo impulsó a presentar la
renuncia a su cargo de profesor de matemáticas en el colegio jesuita
de Colonia. Finalmente, en 1833 aceptó una plaza en la Escuela Politécnica de
Núremberg en la que siguió investigando.

Análisis de circuitos

La importancia de esta ley reside en que verifica la relación entre la diferencia


de potencial en bornes de una resistencia o impedancia, en general, y la
intensidad de corriente que circula a su través. Con ella se resuelven
numerosos problemas eléctricos no solo de la física y de la industria sino
también de la vida diaria como son los consumos o las pérdidas en las
instalaciones eléctricas de las empresas y de los hogares. También introduce
una nueva forma para obtener la potencia eléctrica, y para calcular la energía
eléctrica utilizada en cualquier suministro eléctrico desde las centrales
eléctricas a los consumidores. La ley es necesaria, por ejemplo, para
determinar qué valor debe tener una resistencia
resistencia a incorporar en un circuito
eléctrico con el fin de que este funcione con el mejor rendimiento.

Diagrama de la ley de Ohm

Diagrama circular de la ley de Ohm

En un diagrama se muestran
muest las tres formas de relacionar las magnitudes
físicas que intervienen en la ley de Ohm

La elección de la fórmula a utilizar dependerá del contexto en el que se aplique.


Por ejemplo, si se trata de la curva característica I-V
I V de un dispositivo eléctrico
como un calefactor, se escribiría como: I = V/R. Si se trata de calcular la
tensión V en bornes de una resistencia R por la que circula una corriente I, la
aplicación de la ley sería: V= R I. También es posible calcular la resistencia R
que ofrece un conductor
ctor que tiene una tensión V entre sus bornes y por el que
circula una corriente I, aplicando la fórmula R = V/ I.

triángulo de la ley de Ohm


Una forma mnemotécnica más sencilla de recordar las relaciones entre las
magnitudes que intervienen en la ley de Ohm es el llamado "triángulo de la ley
de Ohm": para conocer el valor de una de estas magnitudes, se tapa la letra
correspondiente en el triángulo y las dos letras que quedan indican su relación
(teniendo en cuenta que las que están una al lado de otra se multiplican, y
cuando quedan una encima de la otra se dividen como en un operador
matemático común).

Circuitos con señales variables en el tiempo

En los circuitos de alterna senoidal, a partir del concepto de impedancia, se ha


generalizado esta ley, dando lugar a la llamada ley de Ohm para circuitos
recorridos por corriente alterna, que indica:

corresponde al fasor corriente, al fasor tensión y a la impedancia.

Corriente eléctrica y movimiento de cargas

Definición de intensidad de corriente I: movimiento de electrones

Corriente eléctrica de cargas positivas

Corriente eléctrica de cargas negativas

Algunas partículas presentan una propiedad fundamental de la materia


llamada carga eléctrica. Para estudiar la corriente eléctrica interesa ver cómo
se desplazan esas cargas, es decir cómo se mueven las partículas
elementales con una carga asociada como los electrones o los iones.7 La
corriente se define como la carga neta que fluye a través de un área
transversal por unidad de tiempo.

Su unidad en el SI es el amperio (A). Un amperio es un culombio por segundo


(electrones/segundo). Dado que en el movimiento de las cargas pueden
intervenir tanto cargas positivas como negativas, por definición se adopta el
criterio de que la corriente eléctrica tiene el sentido del movimiento de cargas
positivo.

Tal y como está definida la corriente, parece que la velocidad a la que se


desplazan los electrones es constante. Sin embargo, para conseguir una
corriente eléctrica es necesario que las cargas estén sometidas a un campo
eléctrico. El campo eléctrico es la fuerza por unidad de carga. Por tanto, al
establecer una corriente eléctrica se ejerce sobre las cargas una fuerza
eléctrica y sobre las partículas cargadas se producirá, por tanto,
una aceleración, tal y como señala la primera ley de Newton.
Cada electrónexperimenta una fuerza por tanto, la aceleración es

siendo la masa de la partícula cargada. Como es constante y la masa y la


carga también, entonces también es constante.

Analogía de la velocidad límite con la velocidad media de caída de una bola por
un plano inclinado con pivotes. La bola es frenada repetidamente por los
pivotes (los iones de la red cristalina del material conductor) de manera que su
velocidad media de bajada es constante

El razonamiento anterior es válido cuando las cargas se mueven en el vacío y,


por tanto, sin encontrar ningún obstáculo a su movimiento. Sin embargo, al
desplazarse las cargas (electrones) por el interior de un material, por ejemplo
en un metal, chocan reiteradamente con los iones de la estructura del metal, de
forma que la velocidad definitiva con la que se mueven las cargas es constante.
A esta velocidad se le llama velocidad de arrastre o de deriva.
El fenómeno de los choques se puede interpretar como una fuerza de
rozamiento o resistiva que se opone a hasta el punto de anularla, y entonces la
velocidad neta de las cargas es constante. En cierta manera el fenómeno es
similar al de las gotas de lluvia que en lugar de caer con una aceleración
constante, alcanzan una velocidad límite constante en su caída debido a la
presencia de aire.

La densidad de corriente J

Detalle de la corriente en el conductor, la densidad de corriente y la velocidad


de arrastre. En la figura aparece el esquema de un trozo elemental de material
(ampliado) por el que circula una corriente eléctrica; se aprecia el sentido del
movimiento de cargas según el campo eléctrico aplicado (por tanto, el de las
cargas positivas) y que por convenio es el de circulación de la corriente. La
densidad de corriente es un vector que lleva la dirección de la corriente y el
sentido del campo eléctrico que acelera las cargas (si el material es lineal)
como se explica en la Ley de Ohm en forma local. El vector {\displaystyle {\vec
establece, además, una relación directa entre la corriente eléctrica y la
velocidad de arrastre de las partículas cargadas que la forman. Se supone que
hay partículas cargadas por unidad de volumen. Se tiene en cuenta también
que la es igual para todas las partículas. En estas condiciones se tiene que en
un tiempo una partícula se desplazará una distancia. Se elige un volumen
elemental tomado a lo largo del conductor por donde circula la corriente y se
amplía para observarlo mejor. Por ejemplo, el volumen de un cilindro es igual
a . El número de partículas dentro del cilindro es. Si cada partícula posee una
carga la carga que fluye fuera del cilindro durante el tiempo es

La corriente por unidad de área trasversal se conoce como densidad de


corriente

La densidad de corriente, y por tanto el sentido de circulación de la corriente,


lleva el signo de las cargas positivas, por ello sustituimos en la expresión
anterior por y se obtiene, finalmente, lo siguiente:
La densidad de corriente se expresa como un vector cuyo sentido es el del
campo eléctrico aplicado al conductor. Su expresión vectorial es:

Si por ejemplo se tratara de electrones, su carga es negativa y el sentido de su


velocidad de arrastre también negativo; el resultado sería, finalmente, positivo.

Intensidad de corriente eléctrica y ley de Ohm en forma local

Las aplicaciones más generales sobre la corriente eléctrica se realizan


en conductores eléctricos,, siendo los metales los más básicos. En un metal
los electrones de valenciasiguen
siguen el llamado modelo de electrón libre,, según el
cual los electrones de valencia de un metal tienen libertad para moverse y
están deslocalizados, es decir, no se pueden asociar a ningún ion de la
estructura porque están continuamente moviéndose al azar, de forma similar a
las moléculas de un gas.. Las velocidades de los electrones dependen de la
temperatura del material conductor;
conductor; a la temperatura ambiente estas
velocidades térmicas son elevadas, pudiendo alcanzar valores de hora bien, el
hecho de que se desplacen no quiere decir que haya una corriente eléctrica: el
movimiento que llevan a cabo es desordenado y al azar, de forma que en
conjunto el desplazamiento de unos electrones se compensa con el de otros y
el resultado es que el movimiento neto de cargas es prácticamente nulo.

Cuando se aplica un campo eléctrico a un metal los electrones modifican su


movimiento aleatorio
atorio de tal manera que se arrastran lentamente en sentido
opuesto al del campo eléctrico. De esta forma la velocidad total de un electrón
pasa a ser la velocidad que tenía en ausencia de campo eléctrico más la
provocada por el campo eléctrico. Así, la trayectoria
trayectoria de este electrón se vería
modificada. Aparece, pues, una velocidad neta de los electrones en un sentido
que recibe el nombre de velocidad de arrastre Los valores numéricos de esta
velocidad son bajos pues se encuentran en torno a los
Trayectoria de un electrón sin ser sometido a un campo eléctrico (azul) y
siendo sometido a campos cada vez más intensos (rojo). Con línea quebrada
en azul se representa la trayectoria de movimiento caótico para un electrón que
sufre sucesivos choques con los iones fijos de la estructura cristalina. La
trayectoria en rojo representa el mismo fenómeno cuando se aplica un campo
eléctrico orientado de derecha a izquierda y que puede alcanzar diferente
intensidad (a mayor separación de la trayectoria azul, mayor valor del campo
eléctrico). Se aplica pues una pequeña desviación de las grandes velocidades
térmicas de los electrones, cuyo efecto global se manifiesta como un
movimiento ordenado con un pequeño valor de velocidad de arrastre según la
dirección del campo y en sentido opuesto (debido al signo negativo de la carga
del electrón).

Si se toma como tiempo τ el tiempo promediado entre colisiones del electrón


con los iones atómicos, usando la expresión de la aceleración que provoca un
campo eléctrico sobre una carga, se obtiene la velocidad de arrastre.
Sustituyendo en la ecuación anterior para la densidad de corriente se llega a la
ley de Ohm microscópica o en forma local.

donde σ es la llamada conductividad eléctrica que relaciona directamente la


densidad de corriente en un conductor y el campo eléctrico aplicado al mismo.
En materiales lineales u óhmicos esta relación es lineal y a mayor campo
eléctrico aplicado, mayor será la densidad de corriente generada, con su
misma dirección y sentido ya que es una ley vectorial.

A partir de la ley de Ohm en forma local se puede obtener la ley de Ohm


macroscópica, generalmente usada. Para ello se parte de un conductor
metálico de sección por donde circula una corriente y se toma una longitud del
mismo. Entre los dos extremos del tramo se aplica una diferencia de potencial.
Por tanto, si se sustituye en la expresión anterior sucede que

Por definición, la relación entre la densidad J y la intensidad I de la corriente


eléctrica que circula a través del conductor es {\displaystyle J={\tfrac es una
propiedad importante del material conductor que se llama resistencia eléctrica,
que es inversamente proporcional a la conductividad del material y que
representa una medida de la oposición del conductor a la conducción eléctrica.

La ley de Ohm clásica o macroscópica

Ley de Ohm clásica

La ley de Ohm determina que para algunos materiales —como la mayoría de


los conductores metálicos— la densidad de corriente y el campo eléctrico se
relacionan a través de una constante llamada conductividad, característica de
cada sustancia. Es decir:
Esta es la ley de Ohm en forma local, obtenida a partir de la noción del campo
eléctrico que acelera a los electrones que se desplazan libremente por el metal
conductor. Gracias a ella se ha obtenido la ley clásica o macroscópica:

Para los metales y casi todos los otros conductores, R es constante; esto es,
no depende de la cantidad de corriente. En algunos materiales, y notablemente
en los materiales semiconductores,
semiconductores R no es constante y este hecho es muy útil
en rectificadores, amplificadores y otros aparatos.

Aquellos materiales cuya resistencia es constante se conocen como lineales u


óhmicos, mientras que aquellos donde no es constante se los denomina no
lineales o no óhmicos. En ciertos materiales no lineales, la relación o curva
característica Volt-Ampere,
Ampere, tiene algunos tramos lineales donde puede
suponerse que R es constante. Además, los elementos no lineales pueden
clasificarse en simétricos y asimétricos; siendo los primeros aquellos cuyas
características no dependen de los sentidos de las corrientes ni de las
tensiones en sus extremos, y los segundos resultan aquellos cuyas
características son diferentes para distintos sentidos de las corrientes y de las
tensiones.

Esta ley contiene menos información, al ser escalar, que la ley para la densidad
de corriente (que incluye módulo, dirección y sentido por su naturaleza
vectorial).

No se puede considerar la ley de Ohm como una ley fundamental de la


naturaleza ya que soloo la cumplen ciertos materiales por lo que se considera
una relación empírica. Sin embargo, esta ley tiene aplicación práctica para una
gran variedad
iedad de materiales, en especial los metales.

Definición de resistividad y su relación con la resistencia

Resistividad

El inverso de la conductividad es la resistividad; que es la resistencia


eléctrica específica de un determinado material, se simboliza con la letra
griega rho minúscula (ρ)
ρ) y se mide en ohmios metro.

Resistencia eléctrica de un conductor


De forma práctica, la ley de Ohm puede
puede obtenerse considerando una porción
de un cable recto de sección trasversal y longitud. Una diferencia
diferen de
potencial mantenida a través de un conductor establece un campo eléctrico y
este
ste campo produce una corriente que es proporcional a la diferencia de
potencial. Si el campo se considera
considera uniforme, la diferencia de potencial se
puede relacionar con el campo eléctrico de la siguiente forma:

Por tanto, la magnitud de la densidad de corriente en el cable se puede


expresar como:

Puesto que , la diferencia de potencial puede escribirse como:

I=RI}

La cantidad se denomina resistencia del conductor. La resistencia es la razón


entre la diferencia de potencial aplicada a un conductor y la corriente que pasa
por el mismo

Resistividad eléctrica y su relación con la resistencia eléctrica

Dicha igualdad representa un caso particular de la ecuación


ecu , donde la sección
del conductor es uniforme y el campo eléctrico creado también, lo que
que permite
expresar el ohmio como unidad de la resistencia de la siguiente manera:

Es la resistencia de un conductor que teniendo aplicada entre sus extremos


una diferencia de potencial de un voltio está recorrido por una corriente de un
amperio.

Dado que,, la resistencia de un conductor cilíndrico determinado es proporcional


a su longitud e inversamente proporcional al área de su sección transversal.

La resistividad {\displaystyle
displaystyle \rho } es una propiedad de una sustancia, en
tanto que la resistencia es la propiedad de un objeto constituido por una
sustancia y con una forma determinada. Las sustancias con resisresistividades
grandes son malos conductores o buenos aislantes, e inversamente, las
sustancias de pequeña resistividad son buenos conductores.
Dependencia de la resistividad con la temperatura

La resistividad de cada material óhmico depende de las propiedades de dicho


material y de la temperatura y, por otro lado, la resistencia de una sustancia
depende de la forma del material y de la resistividad. En general, la relación
funcional entre la temperatura y la resistividad de un metal puede calcularse a
partir de la relación polinómica:

En el rango de temperaturas de 0ºC a 200ºC, la resistividad de un metal varía


aproximadamente de manera lineal con la temperatura de acuerdo con la
expresión:

Donde es la resistividad a cierta temperatura (en grados Celsius), es la


resistividad a determinada temperatura de referencia (que suele considerarse
igual a 20º C) y es el coeficiente de temperatura de resistividad.

Resistividades y coeficientes de temperatura de resistividad para varios


materiales

Resistividad ρ a 20 °C, Ω x Coeficiente de temperatura α a 20 °C,


Material
m K-1

Plata 1,6 x 10-8 3,8 x 10-3

Cobre 1,7 x 10-8 3,9 x 10-3

Aluminio 2,8 x 10-8 3,9 x 10-3

Wolframio 5,5 x 10-8 4,5 x 10-3

Hierro 10 x 10-8 5,0 x 10-3

Plomo 22 x 10-8 4,3 x 10-8

Mercurio 96 x 10-8 0,9 x 10-3

Nicron 100 x 10-8 0,4 10-3

Carbono 3500 x 10-8 -0,5 x 10-3

Germanio 0,45 -4,8 x 10-2


Silicio 640 -7,5 x 10-2

Madera 108 -1014

Vidrio 1010 -1014

Goma
1013 -1016
dura

Ámbar 5 x 1014

Azufre 1 x 1015

Nótese que los valores


lores de son en general positivos, salvo para el carbono, el
germanio y el silicio.

Dado que en n un objeto determinando, la resistencia es proporcional a la


resistividad, se puede denotar la variación en su resistencia como:

A partir de la fórmula anterior se pueden realizar determinaciones de


temperatura, a partir de la medición de la resistencia de un objeto.

Resistividad en función de la temperatura para un metal como


como el cobre. Se
observa que la resistividad es casi proporcional a la temperatura. La curva es
lineal sobre un amplio intervalo de temperaturas y aumenta al hacerlo la
temperatura. Cuando tiende al cero absoluto,, la resistividad tiende a un valor
finito

Resistividad en función de la temperatura para un semiconductor puro, como el


silicio o el germanio.

Resistencia en función de la temperatura para una muestra de mercurio, cuya


temperatura crítica es de 4,2 K.

Materiales de comportamiento lineal u óhmico

Para los metales la resistividad es casi proporcional a la


a temperatura, aunque
siempre hay una zona no lineal a muy bajas temperaturas donde resistividad
suele acercarse a un determinado valor finito según la temperatura se acerca al
cero absoluto. Esta resistividad cerca del cero absoluto se debe, sobre todo, a
choques de electrones con impurezas e imperfecciones en el metal. En
contraposición, la resistividad de alta temperatura (la zona lineal) se
caracteriza, principalmente, por choques entre electrones y átomos metálicos.

Materiales no lineales, como los semiconductores o los superconductores

La disminución de la resistividad a causa a la temperatura, con valores


de negativos, es debida al incremento en la densidad de portadores de carga a
muy altas temperaturas. En vista de que los portadores de carga en un
semiconductor a menudo se asocian con átomos de impurezas, la resistividad
de estos materiales es muy sensible al tipo y concentración de dichas
impurezas.

Superconductores

Los metales son materiales que conducen bien el calor y la electricidad.


Cuando una corriente eléctrica circula por un hilo conductor, este se calienta.
Dicho fenómeno se conoce como efecto Joule, se debe a que los metales
presentan cierta resistencia al paso de la corriente eléctrica por su interior, ya
que cuando se mueven sufren colisiones con los átomos del material. Sin
embargo, en un material superconductor esto no ocurre; estos materiales no
ofrecen ninguna resistencia al paso de la corriente eléctrica por debajo de una
cierta temperatura llamada temperatura crítica. Los electrones se agrupan en
parejas interaccionando con los átomos del material de manera que logran
sintonizar su movimiento con el de los átomos, desplazándose sin sufrir
colisiones con ellos. Esto significa que no se calientan, por lo que no hay
pérdida de energía al transportar la corriente eléctrica debido al efecto Joule.
La teoría básica que explica su comportamiento microscópico se llama 'teoría
BCS' porque fue publicada por Bardeen, Cooper y Schrieffer en 1957. Sin
embargo, en sentido estricto, no hay una única teoría CBS sino que agrupa a
un cierto número de ellas, que son en parte fenomenológicas.

El valor de depende de la composición química, la presión y la estructura


molecular. Algunos elementos como el cobre, la plata o el oro, excelentes
conductores, no presentan superconductividad.

La gráfica resistencia-temperatura para un superconductor sigue la de un metal


normal a temperaturas por encima de

Cuando la temperatura alcanza el valor de la resistividad cae repentinamente


hasta cero. Este fenómeno fue descubierto en 1911 por el físico
neerlandés Heike Kamerlingh Onnes, de la Universidad de Leiden. Onnes
estudió a principios del siglo XX las propiedades de la materia a bajas
temperaturas. Su trabajo le llevó al descubrimiento de la superconductividad en
el mercurio al ser enfriado a –269 °C.21 Sus esfuerzos se vieron
recompensados en 1913 cuando se le concedió el Premio Nobel de Física.

Recientes mediciones han demostrado que las resistividades de


superconductores por debajo de sus valores de temperaturas críticas son
inferiores a —aproximadamente veces más pequeños que la resistividad del
cobre— y en la práctica se consideran iguales a cero. Actualmente se conocen
miles de superconductores y las temperaturas críticas de los superconductores
son bastante más elevadas de lo que en principio se pudo suponer.

En 1986 Johannes Georg Bednorz y Karl Alexander Müller (ganadores del


Premio Nobel en 1987), en unos laboratorios de IBM en Suiza, descubrieron los
materiales superconductores cerámicos. Estos materiales han revolucionado el
mundo de la superconductividad al poder trabajar a temperaturas por encima
de la de ebullición del nitrógenolíquido (–169 °C), lo que permite enfriarlos con
mucha facilidad y de forma barata. Dichos materiales superconductores han
logrado que aumente el interés tecnológico para desarrollar un gran número de
aplicaciones.

Una de las características más importantes de los superconductores es que


una vez que se ha establecido en ellos una corriente, esta persiste sin
necesidad de una fuerza electromotriz aplicada debido a la práctica ausencia
de resistencia. Se han observado corrientes estables que persisten en circuitos
superconductores durante varios años sin un decaimiento aparente.

En 1933 Walter Meissner y Robert Ochsenfeld descubrieron que un material


superconductor no solamente no presenta resistencia al paso de corriente, sino
que también cuenta entre sus propiedades la capacidad para apantallar
un campo magnético. Si enfriamos el superconductor por debajo de su
temperatura crítica y lo colocamos en presencia de un campo magnético, este
crea corrientes de apantallamiento capaces de generar un campo magnético
opuesto al aplicado. Esto ocurre hasta que el campo magnético alcanza un
valor, llamado campo magnético crítico, momento en el que el superconductor
deja de apantallar el campo magnético y el material recupera su estado normal.

El hecho de que el superconductor pueda apantallar totalmente el campo


magnético de su interior se conoce como superconductividad tipo I.
Los superconductores tipo II permiten que el campo magnético pueda penetrar
en su interior sin dejar de ser superconductores. Este comportamiento se
mantiene para campos magnéticos cuyo valor puede ser hasta varios millones
de veces el campo magnético terrestre. Mientras que los superconductores tipo
I siempre intentan expulsar el campo magnético de su interior, los de tipo II se
oponen a que este cambie.
Energía en los circuitos eléctricos: disipación y suministro

Consecuencias energéticas de la ley de Ohm: disipación y el efecto Joule

Llamamos efecto Joule al fenómeno irreversible por el cual si en un conductor


circula corriente eléctrica, parte de la energía cinética de los electrones se
transforma en calor debido a los choques que sufren con los átomos del
material conductor por el que circulan, elevando la temperatura del mismo.
Llega un momento en el que la temperatura del conductor alcanza el equilibrio
térmico con el exterior, comenzando entonces a disipar energía en forma de
calor. El nombre es en honor a su descubridor, el físico británico James
Prescott Joule.

El movimiento de los electrones en un conductor es desordenado; esto provoca


continuos choques entre los electrones y los átomos móviles de la red y como
consecuencia aparece un aumento de la temperatura en el propio conductor
pues transforma energía cinética en calorífica de acuerdo con la siguiente
ecuación y tomando como unidades [P]=W=vatios, [V]=V=voltios,
[I]=A=amperios, [E]=J=julios, [t]=s=segundos,

para la potencia disipada en un tramo conductor que tiene una tensión V entre
sus extremos y circula a su través una corriente I. Además, la energía que
habrá disipado al cabo de un tiempo t será:

De las dos ecuaciones se deduce:

Según Joule, «la cantidad de energía calorífica producida por una corriente
eléctrica depende directamente del cuadrado de la intensidad de la corriente,
del tiempo que esta circula por el conductor y de la resistencia que opone el
mismo al paso de la corriente». Con [R]=Ω=ohmios. Si sustituimos en esta
ecuación, la ley de Ohm clásica , se obtiene la ley de Joule en su forma más
clásica:

Asimismo, ya que la potencia disipada es la energía perdida por unidad de


tiempo, podemos calcular la potencia disipada en un conductor o en una
resistencia de las siguientes tres maneras:

El circuito desprende energía en forma de calor


El funcionamiento eléctrico y las aplicaciones de numerosos electrodomésticos
se fundamentan primero en la ley de Ohm, y en segundo lugar, sus
implicaciones energéticas, en la ley de Joule. En algunos de estos aparatos
eléctricos como los hornos, las tostadoras, las calefacciones eléctricas y otros
empleados industrialmente, el efecto útil buscado es precisamente el calor que
desprende el conductor por el paso de la corriente. En la mayoría de las
aplicaciones, sin embargo, es un efecto indeseado y la razón por la que los
aparatos eléctricos y electrónicos (como el ordenador) necesitan un ventilador
que disipe el calor generado y evite el calentamiento excesivo de los diferentes
dispositivos.

Suministro de energía: fuerza electromotriz

El generador tiene una resistencia interna, r

Como explica la ley de Ohm, para que circule corriente por un circuito es
necesario aportar una energía para mantener una diferencia de potencial y
crear el campo eléctrico que acelera las cargas. Se denomina fuerza
electromotriz (FEM) a la energía necesaria para transportar la unidad de carga
positiva a través de un circuito cerrado. Esta energía proviene de cualquier
fuente, medio o dispositivo que suministre la energía eléctrica, como puede ser
una pila o una batería. Para ello se necesita mantener una diferencia de
potencial entre dos puntos o polos de dicha fuente que sea capaz de impulsar
las cargas eléctricas a través de un circuito cerrado. En el caso de pilas o
baterías la energía inicial es de origen químico que se transforma en energía
eléctrica para disiparse posteriormente en el conductor por efecto Joule.

La energía suministrada al circuito puede expresarse como:

La potencia que suministra generador es:

Comparando ambas expresiones se obtiene una posible justificación de fuerza


electromotriz. Los generadores reales se caracterizan por su fuerza
electromotriz y por su resistencia interna, es decir, un generador transforma
en energía eléctrica otras formas de energía y cuando es recorrido por una
corriente, se calienta. Esto representa una pérdida de potencia suministrada al
circuito exterior. Expresión de la potencia suministrada al circuito por un
generador real:

Batería que impulsa cargas eléctricas a través de un circuito cerrado

Este balance de energías se puede analizar en un circuito cerrado básico con


una batería de fem y de resistencia interna por el que circula una corriente y
alimenta una resistencia . Además, es la diferencia de potencial que se aplica
en los bornes del generador que por la ley de Ohm será igual a {\displaystyle
Este balance se puede expresar como:

Significa que la potencia suministrada por el generador es igual a la


suministrada al circuito exterior más la consumida internamente. Dividiendo la
expresión anterior por la corriente eléctrica resulta lo siguiente:

Cuando un generador suministra una energía al circuito, este es recorrido por


una intensidad de corriente, los electrones del circuito son acelerados por el
campo eléctrico "E" y la diferencia de potencial entre las bornes del generador
se reduce en el valor de la caída de potencial que se produce en su resistencia
interna. La diferencia de potencial entre los bornes del generador de una
corriente eléctrica I a través del circuito es:

Si no circula corriente por el circuito (circuito abierto), al ser la intensidad nula la


fuerza electromotriz coincidirá con la diferencia de potencial entre los bornes
del generador.

Potencia eléctrica
La energía eléctrica se transmite por líneas sobre torres, como estas
en Brisbane, Australia.

La potencia eléctrica es la proporción por unidad de tiempo, o ritmo, con la cual


la energía eléctrica es transferida por un circuito eléctrico. Es decir, la cantidad
de energía eléctrica entregada o absorbida por un elemento en un momento
determinado. La unidad en el Sistema Internacional de Unidades es
el vatio o watt (W).

Cuando una corriente eléctrica fluye en cualquier circuito, puede transferir


energía al hacer un trabajo mecánico o termodinámico. Los dispositivos
convierten la energía eléctrica de muchas maneras útiles,
como calor, luz (lámpara incandescente), movimiento (motor
eléctrico), sonido (altavoz) o procesos químicos. La electricidad se puede
producir mecánica o químicamente por la generación de energía eléctrica, o
también por la transformación de la luz en las células fotoeléctricas. Por último,
se puede almacenar químicamente en baterías.

La tensión eléctrica se puede definir como el trabajo por unidad de carga


ejercido por el campo eléctrico sobre una partícula cargada para moverla entre
dos posiciones determinadas. La tensión es independiente del camino recorrido
por la carga y depende exclusivamente del potencial eléctrico entre dos puntos
del campo eléctrico.

Potencia eléctrica

La energía eléctrica se transmite por líneas sobre torres, como estas


en Brisbane, Australia.

La potencia eléctrica es la proporción por unidad de tiempo, o ritmo, con la cual


la energía eléctrica es transferida por un circuito eléctrico. Es decir, la cantidad
de energía eléctrica entregada o absorbida por un elemento en un momento
determinado. La unidad dad en el Sistema Internacional de Unidades es
el vatio o watt (W).

Cuando una corriente eléctrica fluye en cualquier circuito, puede transferir


energía al hacer un trabajo mecánico o termodinámico. Los dispositivos
convierten la energía eléctrica
eléctrica de muchas maneras útiles,
como calor, luz (lámpara
lámpara incandescente),
incandescente movimiento (motor
eléctrico), sonido (altavoz)) o procesos químicos. La electricidad
ectricidad se puede
producir mecánica o químicamente por la generación de energía eléctrica eléctrica, o
también por la transformación de d la luz en las células fotoeléctricas.. Por último,
se puede almacenar químicamente en baterías.

La tensión eléctrica se puede definir como el trabajo por unidad de carga


ejercido por el campo eléctrico sobre una partícula cargada para moverla entre
dos posiciones determinadas. La tensión es independiente del camino recorrido
por la carga y depende exclusivamente del potencial eléctrico entre dos puntos
del campo eléctrico.

Resistencia eléctrica

Símbolos de la resistencia eléctrica en un circuito

Se le denomina resistencia eléctrica a la oposición al flujo de electrones al


moverse a través de un conductor. La unidad de resistencia en el Sistema
Internacional es el ohmio, que se representa con la letra griega omega (Ω), en
honor al físico alemán Georg Simon Ohm,Ohm, quien descubrió el principio que
ahora lleva su nombre. Para un conductor de tipo cable, la resistencia está
dada por la siguiente fórmula:

Donde ρ es el coeficiente de proporcionalidad o la resistividad del material, es


la longitud del cable y S el área de la sección transversal del mismo.

La resistencia de un conductor depende directamente de dicho coeficiente,


además es directamente proporcional a su longitud (aumenta
(aumenta conforme es
mayor su longitud) y es inversamente proporcional a su sección transversal
(disminuye conforme aumenta su grosor o sección transversal).

Descubierta por Georg Ohm en 1827, la resistencia eléctrica tiene un parecido


conceptual con la fricción en la física mecánica. La unidad de la resistencia en
el Sistema Internacional de Unidades es el ohmio (Ω).
). Para su medición, en la
práctica existen diversos métodos, entre los que se encuentra el uso de
un óhmetro.. Además, su magnitud
ma recíproca es la conductancia,
conductancia medida
en Siemens.

Por otro lado, de acuerdo con la ley de Ohm la resistencia de un material puede
definirse como la razón entre la diferencia de potencial eléctrico y la corriente
en que atraviesa dicha resistencia, así:

Donde R es la resistencia en ohmios, V es la diferencia de


potencial en voltios e I es la intensidad de corriente en amperios.

También puede decirse que "la intensidad de la corriente que pasa por un
conductor es directamente proporcional a la diferencia de potencial e
inversamente proporcional a su resistencia"

Según sea la magnitud de esta medida, los materiales se pueden clasificar


en conductores, aislantes y semiconductor.. Existen además ciertos materiales
en los que, en determinadas condiciones de temperatura, aparece un
fenómeno denominado superconductividad,
superconductividad en el que el valor de la resistencia
es prácticamente nulo.

Comportamientos ideales y reales

Figura 2. Circuito con resistencia.

Una resistencia ideal es un elemento pasivo que disipa energía en forma de


calor según la ley de Joule. Joule. También establece una relación de
proporcionalidad entre la intensidad de corriente que la atraviesa y la tensión
medible entre sus extremos, relación conocida como ley de Ohm:

donde i(t) es la corriente eléctrica que atraviesa la resistencia de valor R y u(t)


es la diferencia de potencial que se origina. En general, una resistencia real
podrá tener diferente comportamiento en función del tipo de corriente que
circule por ella.

Comportamiento en corriente continua

Una resistencia real en corriente continua (CC) se comporta prácticamente de


la misma forma que si fuera ideal, esto es, transformando la energía eléctrica
en calor por efecto Joule.. La ley de Ohm para corriente continua establece que:

donde R es la resistencia en ohmios, V es la diferencia de


potencial en voltios e I es la intensidad de corriente en amperios.

Comportamiento en corriente alterna

Figura 3. Diagrama fasorial.

Como se ha comentado anteriormente, una resistencia real muestra un


comportamiento diferente del que se observaría en unauna resistencia ideal si la
intensidad que la atraviesa no es continua. En el caso de que la señal aplicada
sea senoidal, corriente alterna (CA), a bajas frecuencias se observa que una
resistencia real se comportará de forma muy similar a como lo haría en CC,
siendo despreciables las diferencias. En altas frecuencias el comportamiento
es diferente, aumentando
entando en la medida en la que aumenta la frecuencia
aplicada, lo que se explica fundamentalmente por los efectos inductivos que
producen los materiales que conforman la resistencia real.

Por ejemplo, en una resistencia de carbón los efectos inductivos solo


solo provienen
de los propios terminales de conexión del dispositivo mientras que en una
resistencia de tipo bobinado estos efectos se incrementan por el devanado de
hilo resistivo alrededor del soporte cerámico, además de aparecer una cierta
componente capacitivaitiva si la frecuencia es especialmente elevada. En estos
casos, para analizar los circuitos, la resistencia real se sustituye por una
asociación serie formada por una resistencia ideal y por una bobina también
ideal, aunque a veces también se les puede añadir un
pequeño condensador ideal en paralelo con dicha asociación serie. En los
conductores,s, además, aparecen otros efectos entre los que cabe destacar
el efecto pelicular.

Consideremos una resistencia R, como la de la figura 2, a la que se aplica una


tensión alterna de valor:

De acuerdo con la ley de Ohm circulará una corriente


riente alterna de valor:

Donde. Se obtiene así, para la corriente, una función senoidal que está en fase
con la tensión aplicada.

Si se representa el valor eficaz de la corriente obtenida en forma polar:

Y operando matemáticamente:

De donde se deduce que en los circuitos de CA la resistencia puede


considerarse como una magnitud compleja con parte real y sin parte imaginaria
o, lo que es lo mismo con argumento nulo, cuya representación
representación binómica y
polar serán:

Asociación de resistencias

Resistencia equivalente

Asociaciones generales de resistencias: a) Serie y b) Paralelo. c) Resistencia


equivalente.

Se denomina resistencia equivalente a la asociación


asociación respecto de dos puntos A
y B, a aquella que conectada a la misma diferencia de potencial, UAB,
demanda la misma intensidad, I (ver figura 4). Esto significa que ante las
mismas condiciones, la asociación y su resistencia equivalente disipan la
misma potencia.

Asociación en serie

Dos o más resistencias se encuentran conectadas en serie cuando al aplicar al


conjunto una diferencia de potencial, todas ellas son recorridas por la misma
corriente.

Para determinar la resistencia equivalente de una asociación serie


imaginaremos que ambas, figuras 4a) y 4c), están conectadas a la misma
diferencia de potencial, UAB. Si aplicamos la segunda ley de Kirchhoff a la
asociación en serie tendremos:

Asociación en paralelo

Dos o más resistencias se encuentran en paralelo cuando tienen dos


terminales comunes de modo que al aplicar al conjunto una diferencia de
potencial, UAB, todas las resistencias tienen la misma caída de tensión, UAB.

Para determinar la resistencia equivalente de una asociación en paralelo


imaginaremos que ambas, figuras 4b) y 4c), están conectadas a la misma
diferencia de potencial mencionada, UAB, lo que originará una misma demanda
de corriente eléctrica, I. Esta corriente se repartirá en la asociación por cada
una de sus resistencias de acuerdo con la primera ley de Kirchhoff:

Aplicando la ley de Ohm:

Por lo que la resistencia equivalente de una asociación en paralelo es igual a la


inversa de la suma de las inversas de cada una de las resistencias.

Existen dos casos particulares que suelen darse en una asociación en paralelo:

1. Dos resistencias: en este caso se puede comprobar que la resistencia


equivalente es igual al producto dividido por la suma de sus valores, esto es:

2. k resistencias iguales: su equivalente resulta ser

Asociación mixta
Asociaciones mixtas de cuatro resistencias: a) Serie de paralelos, b) Paralelo
de series y c) Ejemplo de una de las otras posibles conexiones.

En una asociación mixta se encuentran conjuntos de resistencias


resistencias en serie con
conjuntos de resistencias en paralelo. En la figura 5 pueden observarse tres
ejemplos de asociaciones mixtas con cuatro resistencias.

A veces una asociación mixta es necesaria ponerla en modo texto. Para ello se
utilizan los símbolos "+" y "//" para designar las asociaciones serie y paralelo
respectivamente. Así con (R1 + R2) se indica que R1 y R2 están en serie
mientras que con (R1//R2) que están en paralelo. De acuerdo con ello, las
asociaciones de la figura 5 se pondrían del siguiente modo:

a) (R1//R2)+(R3//R4)

b) (R1+R3)//(R2+R4)

c) ((R1+R2)//R3)+R4

Para determinar la resistencia equivalente de una asociación mixta se van


simplificando las resistencias que están en serie y las que están en paralelo de
modo que el conjunto vaya resultando
resultando cada vez más sencillo, hasta terminar
con un conjunto en serie o en paralelo. Como ejemplo se determinarán las
resistencias equivalentes de cada una de las asociaciones de la figura 5:
a)

R1//R2 = R1//2

R3//R4 = R3//4

RAB = R1//2 + R3//4

b)

R1+R3 = R1+3

R2+R4 = R2+4

RAB = R1+3//R2+4

c)

R1+R2 = R1+2

R1+2//R3 = R1+2//3

RAB = R1+2//3 + R4

Asociaciones estrella y triángulo


triángul

a) Asociación en estrella.
b) Asociación en triángulo.

En la figura a) y b) pueden observarse respectivamente las asociaciones


estrella y triángulo, también llamadas o delta respectivamente. Este tipo de
asociaciones son comunes en las cargas trifásicas.. Las ecuaciones de
equivalencia entre ambas asociaciones vienen dadas por el teorema de
Kennelly:
Resistencias en estrella en función de las resistencias en triángulo
(transformación de triángulo a estrella)

El valor de cada una de las resistencias en estrella es igual al cociente del


producto de las dos resistencias en triángulo adyacentes al mismo terminal
entre la suma de las tres resistencias en triángulo.

Resistencias en triángulo en función de las resistencias en estrella


(transformación de estrella a triángulo)

El valor de cada una de las resistencias en triángulo es igual la suma de las


dos resistencias en estrella adyacentes
adyacentes a los mismos terminales más el
cociente del producto de esas dos resistencias entre la otra resistencia.

Asociación puente

Asociación puente

Si en una asociación paralelo de series como la mostrada en la figura 5b se


conecta una resistencia que una las dos ramas en paralelo, se obtiene
obtiene una
asociación puente como la mostrada en la figura.
figura

La determinación de la resistencia equivalente de este tipo de asociación tiene


solo interés pedagógico.. Para ello se sustituye bien una de las configuraciones
en triángulo de la asociación, la R1
R1-R2-R5 o la R3-R4-R5R5 por su equivalente en
estrella, bien una de las configuraciones en estrella, la R1-R3-R5
R1 R5 o la R2
R2-R4-
R5 por su equivalente en triángulo. En ambos casos se consigue
consigue transformar el
conjunto en una asociación mixta de cálculo sencillo. Otro método consiste en
aplicar una fem (E) a la asociación y obtener su resistencia equivalente
equivalente como
relación de dicha fem y la corriente total demandada (E/I).

El interés de este tipo de asociación está en el caso en el que por la resistencia


central, R5, no circula corriente o R4, en función de las otras tres. En ello se
basan los puentes de Wheatstone y de hilo para la medida de resistencias con
precisión.
Resistividad de algunos
materiales a 20 °C

Resistividad
Material
(Ω·m)

Plata5 1,55 × 10–8

Cobre6 1,70 × 10–8

Oro7 2,22 × 10–8

Aluminio8 2,82 × 10–8

Wolframio9 5,65 × 10–8

Níquel10 6,40 × 10–8

Hierro11 8,90 × 10–8

10,60 × 10–
Platino12
8

11,50 × 10–
Estaño13
8

Acero
72,00 × 10–
inoxidable
8
30114

60,00 × 10–
Grafito15
8

Resistencia de un conductor

El conductor es el encargado de unir eléctricamente cada uno de los


componentes de un circuito. Dado que tiene resistencia óhmica, puede ser
considerado como otro componente más con características similares a las de
la resistencia eléctrica.

De este modo, la resistencia de un conductor eléctrico es la medida de la


oposición que presenta al movimiento de los electrones en su seno, es decir la
oposición que presenta al paso de la corriente eléctrica. Generalmente su valor
es muy pequeño y por ello se suele despreciar, esto es, se considera que su
resistencia es nula (conductor ideal), pero habrá casos particulares en los que
se deberá tener en cuenta su resistencia (conductor real).

La resistencia de un conductor depende de la longitud del mismo en m, de su


sección en m², del tipo de material y de la temperatura. Si consideramos la
temperatura constante (20 °C), la resistencia viene dada por la siguiente
expresión:

en la que es la resistividad (una característica propia de cada material).

Influencia de la temperatura

La variación de la temperatura produce una variación en la resistencia. En la


mayoría de los metales aumenta su resistencia al aumentar la temperatura, por
el contrario, en otros elementos, como el carbono o el germanio la resistencia
disminuye.

Como ya se comentó, en algunos materiales la resistencia llega a desaparecer


cuando la temperatura baja lo suficiente. En este caso se habla
de superconductores.

Potencia que disipa una resistencia

Una resistencia disipa en calor una cantidad de potencia cuadráticamente


proporcional a la intensidad que la atraviesa y a la caída de tensión que
aparece en sus bornes.

Comúnmente, la potencia disipada por una resistencia, así como la potencia


disipada por cualquier otro dispositivo resistivo, se puede hallar mediante:

A veces es más cómodo usar la ley de Joule para el cálculo de la potencia


disipada, que es:

Observando las dimensiones del cuerpo de la resistencia, las características de


conductividad de calor del material que la forma y que la recubre, y el ambiente
en el cual está pensado que opere, el fabricante calcula la potencia que es
capaz de disipar cada resistencia como componente discreto, sin que el
aumento de temperatura provoque su destrucción. Esta temperatura de fallo
puede ser muy distinta según los materiales que se estén usando. Esto es, una
resistencia de 2 W formada por un material que no soporte mucha temperatura,
estará casi fría (y será grande); pero formada por un material metálico, con
recubrimiento cerámico, podría alcanzar altas temperaturas (y podrá ser mucho
más pequeña).
El fabricante dará como dato el valor en vatios que puede disipar cada
resistencia en cuestión. Este valor puede estar escrito en el cuerpo del
componente o se tiene que deducir de comparar su tamaño con los tamaños
estándar y su respectivas potencias. El tamaño de las resistencias comunes,
cuerpo cilíndrico con 2 terminales, que aparecen en los aparatos eléctricos
domésticos suelen ser de 1/4 W, existiendo otros valores de potencias de
comerciales de ½ W, 1 W, 2 W, etc.

También podría gustarte