Tierheime sind Einrichtungen, die sich um die Aufnahme und Versorgung von Tieren kümmern, die ausgesetzt, verlassen oder misshandelt wurden. Sie bieten den Tieren ein sicheres Zuhause, medizinische Versorgung und eine liebevolle Umgebung. Tierheime helfen auch bei der Vermittlung von Tieren an neue Besitzer. Sie sind ein wichtiger Bestandteil der Tierhilfe und tragen zur Verbesserung des Lebens von Tieren bei.