Razložljiva umetna inteligenca postaja ključna komponenta pri uporabi umetne inteligence v občutljivih družbenih kontekstih, kot so pravo, zdravstvo in finance. Kompleksnost naprednih modelov umetne inteligence, kot so globoke nevronske mreže in veliki jezikovni modeli, pogosto onemogoča razumevanje njihovega delovanja in tako zmanjšuje zaupanje uporabnikov. V tem prispevku predstavimo glavne koncepte in metode razložljive UI, raziskujemo regulativne zahteve in tehnološke izzive ter posebno pozornost namenimo uporabi razložljive UI v pravnem okviru. Članek osvetljuje tudi izzive, ki jih predstavljajo veliki jezikovni modeli, in zagovarja potrebo po razložljivosti kot temeljnem pogoju za zanesljivo, pravično in zakonito uporabo UI.