Tokenizare (Tokenization)

Tokenizarea (Tokenization) se referă la un proces prin care date sensibile sunt transformate în „tokenuri” care pot fi ulterior utilizate într-o bază de date sau un sistem intern. Procesul de tokenizare este utilizat și în securizarea datelor sensibile, prin înlocuirea lor cu valori de aceeași lungime și format. Tokenurile pot fi utilizate ulterior în sistemele interne ale unei organizații, în timp de datele sensibile inițiale sunt stocate într-un seif digital securizat. Datele transformate în tokenuri sunt nedescifrabile și ireversibile. După tokenizare datele nu pot fi readuse în forma inițială.