Хорошо, давайте применим эту формулу к примеру. Допустим, у нас есть набор данных с пятью объектами:
Предположим, у нас есть новый объект \(u\), который мы хотим классифицировать, например, \(u = (3, 3)\).
1. Найдем расстояния между \(u\) и каждым объектом:
2. Выберем три ближайших соседа для \(u\):
Ближайшие соседи: объект 2, объект 3, объект 4
3. Теперь мы смотрим на классы этих ближайших соседей:
4. Теперь мы считаем сумму индикаторов для каждого класса:
5. Теперь мы выбираем класс \( y \), который максимизирует сумму:
\[\underset{y \in \{\text{"красный"}, \text{"синий"}\}}{\operatorname{argmax}} \sum_{i=1}^3 \mathbb{I}[y_u^{(i)} = y]\]
Таким образом, предсказанный класс для объекта \(u = (3, 3)\) с использованием метода k-ближайших соседей и \(k = 3\) будет "красный", так как "красный" класс представлен большинством ближайших соседей.