Maar zou het niet precies het tegenovergestelde zijn en zou er nog meer vermogen als warmte worden afgevoerd als de temperatuur stijgt?
Nee. Het vermogen van de diode om warmte af te voeren is evenredig met \ $ \ frac {\ Delta T} {R_T} \ $ waarbij \ $ \ Delta T \ $ het temperatuurverschil is tussen de chip en de omgevingstemperatuur en \ $ R_T \ $ is de thermische weerstand tussen de chip en de omgevingstemperatuur. De laatste parameter omvat de thermische weerstand van de chip tegen de behuizing, de behuizing tegen het koellichaam (indien aanwezig) en het koellichaam tegen de lucht of koelvloeistof.
Aangezien de maximale temperatuur van de chip beperkt is tot 175 ° C, moet, als \ $ \ Delta T \ $ afneemt als gevolg van toenemende omgevingstemperatuur, het te dissiperen vermogen afnemen om in het veilige werkgebied (SOA) te blijven. / p>
Onthoud dat de temperatuur van het apparaat stijgt totdat het stroomverlies door koeling gelijk is aan het opgenomen elektrische vermogen. \ $ P_ {IN} = P_ {OUT} \ $.
Uit de opmerkingen:
Dus de watt in de "Power dissipation" is eigenlijk de huidige * spanning.
Ja, maar onthoud dat het alleen de spanning over de diode is die voor siliciumdiodes ongeveer 0,7 V zal zijn. Dus bij 1 A heb je \ $ P = VI = 0,7 \ maal 1 = 0,7 \ \ mathrm W \ $ verdwijnt in de diode.
... en hoe meer watt er door de diode gaat (als ik het zo kan zeggen), ...
Waarschijnlijk niet de beste manier. Watts die door de diode gaan, hebben er geen invloed op, aangezien ze bij de belasting komen. De watt die aan de diode wordt gedissipeerd, is het probleem.
... hoe sneller het opwarmt ...
Ja.
... en dus naarmate de omgevingstemperatuur stijgt, zijn er minder watt nodig om de temperatuur te verhogen tot 175 ° C waarin de diode zou stoppen met werken?
Juist.