Ответ на
загадку (комменты уже раскрыты).
Правильные ответы дали
with_astronotus,
slobin и
vmel, причём
with_astronotus именно
догадался, не зная, что особо ценно :)
Итак. Это искусственно сгенерированные последовательности букв в соответствии с
вероятностями частотами сочетаний букв в русских текстах. Широко использовались (и используются) в научно-популярной литературе для иллюстрации
цепей Маркова, т.е. последовательности случайных событий, вероятность каждого из которых зависит только от предыдущего события (или n предыдущих событий). В первой фразе n=1, во второй n=2, в третьей n=3.
Там в комментах я писал, что данный пример привёл сам
Марков, однако, кажется, меня ввела в заблуждение одна из нагугленных статей; похоже, что первоисточник именно этого примера — всё-таки книга А. Яглома и И. Яглома
«Вероятность и информация», в которой я, собственно, и познакомился с этими примерами в середине 70-х гг. (а книга эта и до сих пор лежит у меня где-то в недрах книжных шкафов). Любопытно, к слову, что в этой книге Марков вообще не упоминается по непонятной для меня причине.
Достаточно популярно этот вопрос изложен
тут.