Praktična razlika bi bila, da ali prehod prehod ne bi bil dovolj gladek, ali pa bi prehod trajal predolgo.
Kar moraš upoštevati, je to, da je tvoja "funkcija
lie(t)" dejansko rezultat neke druge funkcije, ki pa je linearna. Samo ne po času.
Sicer pa glede "dovolj gladkega prehoda"...
NTP odjemalec namreč ne "preskakuje" na korkoli dobi od NTP strežnikov, temveč počasi limitira proti pravilni vrednosti časa. Sočasno pa računa še koliko lokalna ura na strežniku prehiteva ali zaostaja (drift) in nato samostojno popravlja tudi lokalno sistemsko uro. Cilj je, da drift ujame natančno prehitevanje/zaostajanje ure, tako da popravki časa praktično več niso potrebni.
S poznavanjem delovanja NTP odjemalcev v gruči in neko predpisano toleranco odstopanja znotraj gruče, lahko dokaj natančno izračunaš kolikšna je največja delta za katero lahko časovni interval pospešiš ali upočasniš. Če recimo izračunaš, da lahko 1s' skrajšaš za 0,1% vsakih 5s' (ura začne prehitevati), ne da bi porušl sinhronizacijo, potem lahko to vržeš v enačbo in izračunaš kolikšen je najkrajši časovni interval, v katerem lahko čas v sistemu dovolj pospešiš in nato še upočasniš do ponovnega ujemanja s pravilnim časom.
Rezultat je, da se na začetku na času pridobivaš počasi, nato pa vedno hitreje (namesto enakomernega pospeška imaš enakomerno naraščajoči/pojemajoči pospešek).
Če bi naredil samo eno skrajšanje intervala (npr. 1000ms bi pretekel v 995ms), potem bi celoten proces trajal mnogo dlje. Vendar pa čisto po nepotrebnem, ker bi lahko takoj potem, ko se ure odjemalcev stabilizirajo, narediš nov prehod. Bodisi v plus, bodisi v minus. Torej je graf rezultat tega, da narediš prestopno sekundo v najkrajšem možnem času znoraj predpisanih toleranc. No... pa verjetno so si vzeli še kaj rezerve za vsak primer.