Muy buenas a todos!!
Iré al grano. Tengo una duda existencial sobre lo siguiente: Midiendo con el polímetro la resistencia de una lámpara incandescente de 100W (las bombillas de toda la vida) obtengo unos 40 ohmios (hasta aquí bien). Si la conecto a la red de C.A. de 230 V y mido la caída de tensión y la intensidad que la atraviesa obtengo 230 V aprox. y 0,5 A. respectivamente. Mi duda es ¿por qué no se cumple la Ley de Ohm si una lámpara de incandescencia se comporta como una resistencia pura?. El mosqueo que tengo es porque al calcular la R me da...R=V/I = 230/0,5= 460 Ohmios, se supone que tendrían que salir unos 40 (algo más debido al calentamiento) y justamente obtengo ese valor pero aumentado en diez veces!. Las escalas de los aparatos son las correctas por lo que los 230 V y los 0,5 A son reales.
¿Qué es lo que está fallando? Me estoy volviendo loco con algo tan simple.
Gracias de antemano!!