Guess word com ответы

Чтобы обеспечить наилучшие впечатления, мы используем такие технологии, как файлы cookie, для хранения и/или доступа к информации об устройстве. Согласие с этими технологиями позволит нам обрабатывать такие данные, как поведение при просмотре или уникальные идентификаторы на этом сайте. Отсутствие согласия или отзыв согласия может отрицательно сказаться на некоторых функциях и функциях.


Functional

Functional

Always active


The technical storage or access is strictly necessary for the legitimate purpose of enabling the use of a specific service explicitly requested by the subscriber or user, or for the sole purpose of carrying out the transmission of a communication over an electronic communications network.


Preferences

Preferences


The technical storage or access is necessary for the legitimate purpose of storing preferences that are not requested by the subscriber or user.


Statistics

Statistics


The technical storage or access that is used exclusively for statistical purposes.
The technical storage or access that is used exclusively for anonymous statistical purposes. Without a subpoena, voluntary compliance on the part of your Internet Service Provider, or additional records from a third party, information stored or retrieved for this purpose alone cannot usually be used to identify you.


Marketing

Marketing


The technical storage or access is required to create user profiles to send advertising, or to track the user on a website or across several websites for similar marketing purposes.

Ср дек 28, 2022 08:50:38

А сколько осталось ?

Ср дек 28, 2022 09:22:33

Довольно трудно на этот раз, но всё же достаточно логичная концовка оказалась.
Вчера вечером начал, до 4 дошел и глухо застрял.
Сегодня с утра продолжил и добил, всё-таки…

Кстати, ответы на завершенные игры по адресу https://t.me/guesswordcom

Хотел было с отчаяния разгадку в интернете на действующую игру найти, но тщетно…

Чт дек 29, 2022 10:06:39

С третьей попытки взял 5 !!!, но дальше 40 вариантов потребовалось, чтобы вычислить ответ !

Нет, это тест не на логику, а на антилогику!

То у них шимпанзе и динго на одной ветке сидят, то вот это тоже…

Чт дек 29, 2022 13:58:38

Тоже соглашусь и, пожалуй, заброшу это занятие…
Тут очень многое от случайности зависит, в какое слово ты первоначально ткнул. Да и потом особой логики не наблюдается.
Я вчера так и застрял на

с рейтингом 225 и забросил это дело…
Но особо упоротые 1639 попыток делают, чтобы добиться результата… :))

https://t.me/guesswordcom/182

Чт дек 29, 2022 14:41:28

..я пока на 122..ща еще 10 минут помучаю, и пойду читать в соседнюю ветку объяснялки про «отрицательную экономику».. :)))

..вау..уже на 101.. :music:

..вау..!!!

..отгадал, 49 попыток..

Изображение

Чт дек 29, 2022 15:22:07

Надо будет «импортозаместить», так то игра не сложная но над словарем стоит поработать, да и принцип с отсутствием слов с одинаковыми позициями имхо тут вреден делая поиск антиинтуитивным

Чт дек 29, 2022 17:21:27

я не особо спец в этой вей лингвистике и ассоциативности (да вообще полный ноль), но мне кажется, не более 10 слов должно наталкивать на правильный вариант, а то и меньше, около шести. одушевленное или нет, материальное или нет и т. д. по крайней мере, я так и играл, называя «паровоз», «зеленый», «утро»

Чт дек 29, 2022 18:34:51

М-да…

Ответы опубликовали https://t.me/guesswordcom/188

Ответ прошлой игры — ИСКУССТВО! ‍

И его ТОП-10:
1 — искусство
2 — мастерство
3 — ремесло
4 — творчество
5 — наука
6 — живопись
7 — умение
8 — поэзия
9 — знание
10 — произведение

Ну, если моя «музыка» и имеет к нему ассоциацию, то «растение» а, чуть раньше, «дерево» — вряд ли…
И я тупо пошел перебирать деревянные музыкальные инструменты… :))

Тут если сразу удачно в верхнюю сотню не попадешь, то уведет далеко в сторону. Нужно в таком случае тупо пробные шары запускать, не сильно обращая на ассоциации…

У них, оказывается, на последнем часе подсказки есть в комментариях (там клик надо сделать для видимости подсказки):
https://t.me/guesswordcom/184

Ну, и милости просим на новую игру, у кого еще желание не пропало… :))

Чт дек 29, 2022 18:52:46

Martian, 10 маловато. Оптимально для интересной игры от 30 до 70 шагов.

Чт дек 29, 2022 20:31:06

Не знаю, всегда я эти игры считал — «если некому тебе трахнуть мозг трахни его сам»… Толку я от этого не вижу… если только в юном возрасте…

Какое-то мифическое развитие, поддержание ума в тонусе… Дык… все уже взрослые… что-там уже сделаешь…

:dont_know:

Чт дек 29, 2022 20:38:40

Как раз, таки, в, мягко говоря, достаточно зрелом возрасте такие упражнения и полезны… :)
Потом поймёшь… :))

Да и тебе не мешает свой словарный запас пополнить… :)))

Последний раз редактировалось rl55 Чт дек 29, 2022 20:40:19, всего редактировалось 1 раз.

Чт дек 29, 2022 20:39:43

Не… 55-ый, я некого не осуждаю, либо говорю что это правильноне правильно… Просто наверное что ближе человеку…

Я подобное видел на заводе, когда мужики во время обеденного перерыва играли просто так в домино…
Моя интерпретация сего их действия — тупо не ёбнутся… от монотонного физического, и умственного(это когда ты неделю-месяц выполняешь одни и те же операции… да хотя-бы в плане измерений тем-же штангелем…) труда

Последний раз редактировалось Dik13 Чт дек 29, 2022 20:44:43, всего редактировалось 1 раз.

Чт дек 29, 2022 20:44:22

Ну вот видишь, мужики интеллектуально развивались, а то из твоих рассказов, у тебя на заводе одна пьянь работала… :))

Чт дек 29, 2022 20:46:04

Это как раз вашего возраста были… — кто пережил 90-ые, белку, пьянки, лихую молодость, и не помер от этого всего…

мужики интеллектуально развивались

скорее всего не для развития, а для не деградации это всё было… Всё-таки возраст тоже о себе начинает давать знать не только для тела, но и для мозга…

Как раз, таки, в, мягко говоря, достаточно зрелом возрасте такие упражнения и полезны… :)
Потом поймёшь… :))

нет… если в юном возрасте меня тянуло — к познанию мира, всезнайству(была такая книжка «почемучка» которую я тогда любил до дыр читать), к кроссвордам с «читерством»(я даже и не знал, сам смысл этого действия) в виде словарика Ожегова, и прочим вещам для ума и удовлетворения любознательности…

То вот сейчас это находится несколько в ином ключе — в ключе бога-творца практического воплощения в реальности своих знаний и умений…
Когда виден результат своего умственного
(а не просто его себе трахать «ждаст фо фанради удовольствия», либо тебе его трахают, либо для поддержания ума)
и физического труда…
И это в кайф, это не про денежную выгоду…

Последний раз редактировалось Dik13 Чт дек 29, 2022 21:28:53, всего редактировалось 6 раз(а).

Чт дек 29, 2022 20:48:21

Интересно — а каким боком в этот список наука попала ???
И именно на нее я сразу и угодил ! Хотя бы +- одна — и гадать было бы нечего…

Хотя…. Далеко ходить не надо — есть кое-кто, кто из науки пытается сделать искусство навешивания лапши на уши…

Чт дек 29, 2022 22:29:10

То вот сейчас это находится несколько в ином ключе — в ключе бога-творца практического воплощения в реальности своих знаний и умений…
Когда виден результат своего умственного
(а не просто его себе трахать «ждаст фо фанради удовольствия», либо тебе его трахают, либо для поддержания ума)
и физического труда…
И это в кайф, это не про денежную выгоду…

Вот результат твоего «умственного труда» и проявляется, что ты даже свой текст связно написать не можешь… :)))

Даже за 6 попыток редактирования… :))

Чт дек 29, 2022 23:29:35

Опять тупик… Быстро дошел до политики — а дальше ну ни с каким направлением не вяжется…

Чт дек 29, 2022 23:47:37

То вот сейчас это находится несколько в ином ключе — в ключе бога-творца практического воплощения в реальности своих знаний и умений…
Когда виден результат своего умственного
(а не просто его себе трахать «ждаст фо фанради удовольствия», либо тебе его трахают, либо для поддержания ума)
и физического труда…
И это в кайф, это не про денежную выгоду…

Вот результат твоего «умственного труда» и проявляется, что ты даже свой текст связно написать не можешь… :)))

Даже за 6 попыток редактирования… :))

не буду засорять тему… и не буду отвечать здесь на твои попытки вывести меня на срач…
А то что я редактировал 20-ть раз озвученные тезисы мною — то для меня этот вопрос был и есть чисто философский… и как мог, я его раскрыл… показал своё мнение… даже я-бы сказал, поиск его, попытка прийти к пониманию конечно по своему… не претендуя на какую либо свою 100% правду в последней инстанции…

Пт дек 30, 2022 02:38:40

Правильно, Дик, не надо засорять, ибо мой посыл ты всё равно не понял…

А я, всё же, поразгадываю немного — еще не начинал… :)

Добавлено after 19 minutes 2 seconds:
Муркиз уже слово засветил — теперь никуда не деться, придется с него начать… :)

Всё же надо под спойлер подсказки прятать — я, вот, и не открывал бы его, желая самостоятельно пройти весь путь…

Добавлено after 2 hours 4 minutes 3 seconds:
Ну что ж, даже после подсказки Муркиза пришлось сделать 79 попыток…

Просто надо было искать в более общем понимании того слова, до которого он дошел…

Вложения
отгадай3.png
(28.61 KiB) Скачиваний: 18

Пт дек 30, 2022 10:00:53

Да и в широком, да и специальных — уже 215 попыток , и все на область 50 — 500 приходятся в лучшем случае. От астрономии до астрологии…

Powered by phpBB © phpBB Group.

phpBB Mobile / SEO by Artodia.

Guess Word is a really popular word guessing game from Hapoga. There are of course lots of these games out there, where you see 4 pictures and guess the answer, but this one is different. You are not just given 4 pictures of a dog, and the answer is dog.. it is a bit more thought out. There are words like resource, life, hide, and cover. This makes it far more fun to play than any of the others that I have tried! There are 5 albums and each album has either 40 or 60 puzzles to guess. The answers aren’t always in exactly the same order, so look through the thumbnail pictures if you can’t find your answer in the right spot.

Levels in Guess Word have been randomized so we can’t always get it right. Look at level variations below or check our main page for this game.

Answers

Social

48

users following Guess Word this month.

Дорогие, игроки, на этот раз мы решили добавить ответы к весьма необычной игре под названием GUESS THE WORD _ 4 PICS 1 WORD. Как бы не было странно — игра на русском языке, а вот почему такое кривое название на английском — неизвестно. Итак, если вы ищите ответы на игру GUESS THE WORD (4 PICS 1 WORD) — тогда вы на верной странице — здесь вы их найдёте.

Игра GUESS THE WORD качается и играется на Андроид, скорее всего IOS версии игры нет. Суть всей игры сводится к тому чтобы отгадать слово исходя из приведённых игрой четырёх картинок. В игре немало уровней и некоторые из них действительно сложные, поэтому наши ответы для GUESS THE WORD будут весьма кстати.


Не та игра?
В мире есть несколько игр под названием GUESS THE WORD для самых разных платформ. Если это не ваша игра, тогда выберите свою на
этой странице. У нас есть ответы к нескольким играм с названиями GUESS THE WORD и 4 PICS 1 WORD, а всего количество игр к которым мы подготовили ответы уже давно уходит за 300.

Ответы для всех 3 частей этой игры (эта и Угадай Слово 1,2), вы можете посмотреть здесь.
Если вы вступите в нашу группу Вконтакте, то сможете бесплатно заказать ответы ДЛЯ ЛЮБОЙ ИГРЫ. Хороший бонус, не правда ли?

Всего в игре GUESS THE WORD 200 различных уровней и для каждого из этих уровней у нас есть ответ с картинкой. Так как ответов относительно много, мы решили разделить их на несколько частей и выложить их в форме, которую вы увидите ниже.
В левой части формы у нас располагаются навигационные элементы, которые позволяют переключать промежутки уровней игры GUESS THE WORD. После того как вы выбрали нужный промежуток, картинки с ответами для игры автоматически перезагрузятся на нужные. Благодаря тому что под каждой картинкой с написанным ответом у нас проставлен номер уровня — вы сможете очень быстро найти тот уровень игры GUESS THE WORD на котором вы застряли.

Как мы уже говорили, что у нас есть все ответы на игру GUESS THE WORD, достаточно просто выбрать нужный промужуток уровней игры между которыми заключён ваш уровень. Например, если вы застряли на 52 уровней GUESS THE WORD, тогда вам нужно выбрать 31-60 промежуток.

Ответы для GUESS THE WORD

Уведомляйте нас:Сообщить о новых уровнях

Не будь жадинкой!!!
Поделись с друзьями этой страницей!

 

Локализуем игру в слова с искусственным интеллектом

Время на прочтение
8 мин

Количество просмотров 8K

Даже на русском языке игра не самая простая

Все началось с коллеги, который закинул в локальный чат сообщение, что он сыграл в игру #59 и угадал слово с 33 попыток и одной подсказки. Игра оказалась простая и сложная одновременно: сайт загадал слово и нужно его отгадать. В поле ввода отправляешь слово, а искусственный интеллект на сайте определяет, насколько отправленное слово близко по смыслу к загаданному.

Интересная игра, тренирующая ассоциативное мышление и умение строить связи. Новое слово появляется каждый день, что в некотором смысле выглядит ограничителем. Также игра доступна только на португальском и английском языках. С одной стороны, это дополнительная практика, а с другой — сомнения «а знаю ли я это слово?» смазывают впечатления от игры.

Так я задумался о локализации игры на русский язык. Свою игру «Русо контексто» я разместил на объектном хранилище, которое более устойчиво примет читателей Хабра.

Дисклеймер. Оригинальная игра расположена по адресу contexto.me. В процессе подготовки статьи я узнал о существовании русскоязычной версии guess-word.com. Но эта версия имеет более ограниченную функциональность.

Как работает игра?


У сайта минималистичный интерфейс:

  • Сведения об игре: номер, количество попыток и количество подсказок.
  • Поле ввода слова.
  • Список отгаданных слов в виде полосы загрузки. Чем ближе, тем более она заполнена. Номер справа обозначает расстояние в словах, но его можно отключить.

В выпадающем меню есть настройки и дополнительные игровые опции:

  • Выбрать игру.
  • Взять подсказку.
  • Сдаться.

Если отгадать слово, то игра предложит поделиться результатом и взглянуть на ближайшие 500 слов. Игра очень быстро возвращает ответ и умеет определять начальную форму слова. Иными словами, cat и cats считаются одним словом и выводиятся как cat. Все введенные слова трактуются как существительные, и в списке 500 ближайших слов глагола не встретить.

Это наводит на мысль, что список ближайших слов формируется отдельно, а игра просто обращается к списку. Остается вопрос: как составить список ближайших слов?

Текстовые эмбеддинги


Изначально компьютеры не владеют ни одним человеческим языком. Но человек делает все возможное, чтобы это исправить. Человек может сказать одну команду, используя разные слова и в разном порядке. Машине нужно уметь не просто различать слова, но и понимать смысл, который прячется за этими словами.

Здесь на помощь приходят текстовые эмбеддинги. Если упрощать, то эмбеддинг — это превращение слова в набор чисел, который называют кортежем или вектором. Эти числа задают положение слова в виде точки в пространстве, но не в трехмерном, а в многомерном. Чем ближе две точки, тем ближе слова по смыслу, а компьютеры умеют вычислять.

В рамках данной статьи оставим процесс сопоставления слов векторам в виде черного ящика, которым мы хотим пользоваться, но нам неинтересно, как он работает. Однако если любопытство берет верх, то рекомендую ознакомиться со статьями из секции дополнительного чтения в конце текста.

После операции сопоставления появляется модель — файл, который описывает соответствие «слово — вектор» или как-то описывает правила сопоставления или вычисления. Для работы модели нужно программное обеспечение, которое понимает формат модели.

Проще и быстрее всего «потрогать» эмбеддинги на языке Python. Библиотека gensim реализует один из самых популярных подходов — word2vec. Для работы необходима модель, обученная на достаточном количестве текстов. В документации gensim есть ссылки на англоязычные модели, но нас это не устраивает.

К счастью, проект RusVectores предоставляет модели на русском языке. На сайте представлены контекстуализированные и статические модели. Так как игра принимает на вход одно слово, то нам подходит статическая модель.

Я использовал модель, обученную на Национальном Корпусе Русского Языка (НКРЯ), ее название — ruscorpora_upos_cbow_300_20_2019. Скачиваем архив и распаковываем. Модель представлена в двух видах: бинарном (model.bin) и текстовом (model.txt).

Попробуем воспользоваться этой моделью. Сперва загружаем.

from gensim.models import KeyedVectors
model = KeyedVectors.load_word2vec_format("model.txt", binary=False)

Теперь можем найти слова, ближайшие к слову «провайдер»:

>>> model.most_similar(positive=["провайдер"])
…
KeyError: "Key 'провайдер' not present in vocabulary"

К сожалению, такого слова не нашлось. Дело в том, что данная модель принимает слова вместе с меткой, которая определяет часть слова. Это сделано для различия слов с одинаковым написанием. Например, «печь» можно представить как «печь_NOUN» и «печь_VERB», то есть как существительное и глагол соответственно.

>>> model.most_similar(positive=["провайдер_NOUN"])
[
  ('ip_PROPN', 0.677890419960022), 
  ('internet_PROPN', 0.6627045273780823), 
  ('интернет_PROPN', 0.6595873832702637), 
  ('интернет_NOUN', 0.6567919850349426), 
  ('веб_NOUN', 0.6510902047157288), 
  ('сервер_NOUN', 0.6460723280906677), 
  ('модем_NOUN', 0.6433334946632385), 
  ('трафик_NOUN', 0.6332165002822876), 
  ('безлимитный_ADJ', 0.6230701208114624),
  ('ритейлер_NOUN', 0.6218529939651489)
]

Также возьмем более простой пример с несколькими словами. Зададим два слова: король и женщина. Человек догадается, что женщина-король — это скорее всего королева.

>>> model.most_similar(positive=["король_NOUN", "женщина_NOUN"], topn=1)
[
  ('королева_NOUN', 0.6674807071685791), 
  ('королева_ADV', 0.6368524432182312), 
  ('принцесса_NOUN', 0.6262999176979065), 
  ('герцог_NOUN', 0.613500714302063), 
  ('герцогиня_NOUN', 0.5999450087547302)
]

Метод most_similar выводит список наиболее похожих слов и некоторую метрику расстояния до этого слова. Чем ближе метрика к единице, тем ближе слово. Список слов отсортирован по убыванию этой метрики. Так как сортировка производится при выводе, то значение метрики далее мы использовать не будем.

Аргумент topn позволяет задать количество слов, которые мы хотим получить. Таким образом можно запросить какое-нибудь большое количество слов и получить список, необходимый для создания игры. Давайте зададим более современное слово «киберпространство» и посмотрим на ближайшее слово и на слово, например, на десятитысячной позиции.

>>> result = model.most_similar(positive=["киберпространство_NOUN"], topn=10000)
>>> result[0]
('виртуальный_ADJ', 0.39892229437828064)
>>> result[9998]
('европбыть_VERB', 0.12139307707548141)
>>> result[9999]
('татуировкий_NOUN', 0.12139236181974411)

Татуировкий_NOUN. Кажется, это новый химический элемент.

Наличие специфичных слов, которые могут шуткой, опечаткой, ошибкой в парсинге или локальным жаргонизмом, неприятно влияет на игру.

Более того, использование некорректного тега приведет к интересным результатам

 >>> model.most_similar(positive=["европа_NOUN"], topn=10)
[
  ('максимилиан::александрович_PROPN', 0.3658076822757721), 
  ('фамилие_NOUN', 0.36153605580329895), 
  ('санюшка_NOUN', 0.35595449805259705), 
  ('емельян::ильич_PROPN', 0.35401633381843567), 
  ('автостоп_NOUN', 0.35294172167778015), 
  ('юрген_PROPN', 0.3491175174713135), 
  ('чарльз::диккенс_PROPN', 0.3454093337059021), 
  ('когда-тотец_NOUN', 0.3360745906829834), 
  ('городбыть_VERB', 0.3332841098308563), 
  ('владлен_VERB', 0.33179953694343567)
]

Пояснение: Европа — имя собственное, поэтому тег должен быть PROPN.

Нужно очистить словарь от странных слов и оставить только существительные.

Если вам понравится этот текст, у меня есть еще:

→ Подбираем скины в Counter-Strike: Global Offensive в цвет сумочки
→ Делаем тетрис в QR-коде, который работает
→ Делаем радио из Cyberpunk 2077

Обработка словаря


Один из способов хранения модели word2vec — текстовый. Формат прост: в первой строке задаются два числа — количество строк в документе и количество чисел в векторе. Далее на каждой строке задается слово и далее числа, обозначающие вектор.

Здесь удобно воспользоваться особенностью этой модели, а именно тегами. Существительные имеют тег _NOUN, что позволяет убрать из модели ненужные слова. Удалить не существительные легко, но как поступить с опечатками и странными словами? Здесь на помощь приходит другой эмбеддинг, который обучался на литературе.

Это эмбеддинг Navec (навек) из проекта Natasha. Ссылку на русскоязычную модель можно увидеть в репозитории проекта. Скачиваем и загружаем модель:

from navec import Navec
path = 'navec_hudlit_v1_12B_500K_300d_100q.tar'
navec = Navec.load(path)

Теперь можно проверять слова простым синтаксисом:

>>> "виртуальный" in navec
True
>>> "европбыть" in navec
False
>>> "татуировкий" in navec
False

Таким образом можно отсеять немалое количество слов, которым в игре не место.

Примеры удаленных слов, многие даже великому гуглу неизвестны

цидулка
зачатокать
магазей
антитезть
завоевателий
налицотец
прируба
бислой
цвть
громадий
межрайонец
англиканствый
скудетто
выбытий
делаловек
чтобль

Но вместе с тем теряются и настоящие слова

агрокомплекс
кейтеринг
фемтосекунда
углепластик
электромашиностроение
мурмолка
реанимобиль

Алгоритм очистки модели следующий:

  • Если у слова тег не NOUN, то отбрасываем это слово.
  • Удаляем из слова последовательность _NOUN.
  • Проверяем «чистое слово» на наличие в эмбеддинге Navec. Если его там нет, слово отбрасываем.
  • Слово, которое прошло все проверки, записываем в файл.

После обработки всех слов в первую строку новой модели записываем два числа: количество оставшихся строк и размерность вектора. Размерность вектора при данной обработке остается неизменной. Если все сделано правильно, то очищенную модель получится загрузить:

model = KeyedVectors.load_word2vec_format("noun_model.txt", binary=False)

Стало ли после этого лучше?

>>> result = model.most_similar(positive=["киберпространство"], topn=10000)
>>> result[0]
('виртуальность', 0.4715898633003235)
>>> result[9998]
('компаунд', 0.15783849358558655)
>>> result[9999]
('хитрость', 0.15783214569091797)

Определенно. Для статистики: исходная модель содержит 248 978 токенов, из них 59 104 токенов имеют метку существительного. И только 36 269 прошли «сито» второго эмбеддинга.

Время заняться бэкэндом и фронтендом игры.

Умный бэкэнд


Так как Python является моим рабочим языком программирования, бэкэнд я решил реализовать на нем. Поговорим об обработке входных данных. Обрезать пробелы и перевести текст в нижний регистр — само собой разумеющееся. Но как получить начальную форму слова?

Здесь можно воспользоваться инструментом MyStem. Для Python есть обертка pymystem3. Крайне простой инструмент для получения начальной формы слова:

import pymystem3
mystem = pymystem3.Mystem()

Метод lemmatize принимает на вход строку-предложение и возвращает список слов в начальной форме.

>>> mystem.lemmatize("кот коты котов котах кота")
['кот', ' ', 'кот', ' ', 'кот', ' ', 'кот', ' ', 'кот', 'n']

На первый взгляд даже производительность на достойном уровне: на моей виртуальной машине лемматизация одного слова занимает до 10 мс. По меркам современного веба это достаточно быстро.

Пока я работал над бэкэндом, по работе пришлось познакомиться с объектным хранилищем, среди функций которого есть возможность размещения статических сайтов. И тут мне пришла интересная мысль.

Игра на объектном хранилище


При разработке бэкэнда я продумывал способы защититься от нечестной игры:

  • Сдаться нельзя.
  • Список топ-500 ближайших слов получить можно, только предоставив загаданное слово.
  • Подсказку можно получить по слову и позиции.

Но вскоре мне показалось это слишком суровым.

На данный момент единственное назначение бэкэнда — приведение слов к начальной форме. Правда, как показало тестирование на коллегах, и это не обязательно: все и так старались писать начальные формы слов. Да и модель эмбеддингов не лемматизирована, то есть игра понимает слова не только в начальной форме.

Получается, игру можно полностью перенести в браузер?

Так как я бэкэнд-разработчик, то отказ от бэкэнда в угоду фронтэнду — это стресс. Однако от бэкэнда полностью отказаться не получится: генератор близких слов где-то нужно запускать. Генератор принимает на вход загаданное слово и формирует текстовый файл, где на каждой строке по одному слову в порядке смыслового убывания от загаданного. Содержимое этого файла также дублируется в JSON-словарь, где каждому слову соответствует его дистанция от загаданного слова.

JSON-файл на каждую игру занимает до 2 МБ. При открытии игры файл скачивается в браузер и JavaScript реализует логику игры. Этот способ не самый производительный, но после загрузки файла позволяет играть без подключения к интернету.

Я разместил игру в облачном хранилище Selectel, которое более устойчиво к наплыву посетителей.

Заключение


Итоговый результат доступен по адресу words.f1remoon.com, а исходный код — в репозитории.

Дополнительное чтение


Как работают текстовые эмбеддинги?

→ Чудесный мир Word Embeddings: какие они бывают и зачем нужны? (от пользователя madrugado)
→ Word2vec в картинках (от пользователя m1rko)

Понравилась статья? Поделить с друзьями:
  • Guess what word answers
  • Guess what the word is game
  • Guess this word game
  • Guess this word answers
  • Guess the words 4 pics 1 word