Создан заказ №11093197
24 сентября 2024
Исследование взаимоотношения между применением knowledge distillation и производительностью модели
Как заказчик описал требования к работе:
1. Использовать ru-bert-tiny2, ?. Датасет Russian Language Toxic Comments
2. Применить к модели Knowledge Distillation.
3. Fine-tune сжатой модели на классификации текста
4. Измерить производительность (accuracy, F1 score, inference time, model size).
5. Сравнить производительность сжатой модели
с оригинальной моделью.
Есть код, но столкнулась с ошибкой, пофиксить которую никак не могу. Но можно и заново написать
подробнее
Заказчик
заплатил
заплатил
200 ₽
Заказчик не использовал рассрочку
Гарантия сервиса
Автор24
Автор24
20 дней
Заказчик принял работу без использования гарантии
25 сентября 2024
Заказ завершен, заказчик получил финальный файл с работой

5

Исследование взаимоотношения между применением knowledge distillation и производительностью модели.docx
2024-09-28 15:34
Последний отзыв студента о бирже Автор24
Общая оценка
5

Положительно
Отличный автор, сделал все быстро и с пояснением. Охотно отвечал на вопросы и помог разобраться. Рекомендую!)