чирихюци бедрци \ M

 

Markov chain - A random process in which the probability that a certain future state will occur depends only on the present or immediately preceding state of the system, and not on the events leading up to the present state. ;
дс тдрлими цюлютдажкию дроемжки аиакиохдйис лидр
http://www.computeruser.com/resources/dictionary/definition.html;

 
  • люрйоеис ЦюЮеи
    дс тдрлими цюлютдажкию дроемжки аиакиохдйис лидр
Rus
See this word in other dictionaries

 

  English - Georgian computer terms dictionary
юАюки лолАлюрдаюки
шдюесдх ворлю хж бсжрх хьедми юфрис бюлохьлю
лолАлюрдадки
сюАдки:
пюроки:

имворлющию
продьтис шдсюАда
кдьсийомдаи
имбкисжр - ьюрхжки
ьюрхжк - имбкисжри
сАею кдьсийомдаи

 


яБЪГЮРЭЯЪ Я МЮЛХ
Web master: Giorgi Bakhia Copyright ╘ 2001 National Parliamentary Library of Georgia