Kreditlexikon

Realkreditinstitute

Als Realkredit wird ein Kredit bezeichnet, der durch eine Grundschuld abgesichert ist. Immobilienfinanzierungen sind in der Regel Realkredite.

Realkreditinstitute sind Banken, die Kredite für Immobilienfinanzierungen gewähren und sich dafür als Sicherheit eine Grundschuld oder eine Hypothek in das Grundbuch des Beleihungsobjektes eintragen lassen.

Zur eigenen Refinanzierung geben die Realkreditinstitute Pfandbriefe heraus.

Aktuell keine Bewertungen

War der Artikel hilfreich?

Über den Autor

Thomas Nissen

Thomas Nissen

Experte für Finanzthemen beim unabhängigen Wissensportal Arbeitsgemeinschaft-Finanzen.de

Wir möchten verbraucherorientiert informieren, Hilfestellungen für Entscheidungen geben und scheuen auch keine kritische Beleuchtung der Produkte.