
Уверенное использование искусственного интеллекта начинается с безопасности! Андрей Рыбников, эксперт РТУ МИРЭА, советует: при коллективном использовании ИИ-сервисов обязательно очищайте кэш и временные файлы.
Риски утечки в ИИ-системах
Современные исследования, по словам специалиста, выявили уязвимость ИИ-моделей к атакам, направленным на извлечение пользовательской информации. "Киберзлоумышленники могут получить доступ к введенным данным, особенно если модели обучались на открытых источниках без строгой фильтрации или дообучаются на новых запросах", — подчеркнул Рыбников.
Эффективные стратегии защиты
Ключевой шаг — понимание механизмов обработки ваших запросов, особенно в зарубежных сервисах. Оптимальным решением эксперт называет локальные ИИ-системы, работающие автономно без передачи данных. Дополнительно рекомендуется ручная "очистка" запросов: удаляйте имена, контакты, номера документов и другие конфиденциальные данные. Шифрование файловых систем в Windows, macOS или Linux также создаст надежный барьер.
Перспективы технологий и профессий
Тем временем Светлана Бессараб прогнозирует трансформацию рынка труда: развитие ИИ может сократить потребность в профессиях кассиров и водителей, одновременно оптимизируя IT-сферу для новых возможностей.
Источник: lenta.ru






