🧠 Блог посвящен теме VPN и безопасности, конфиденциальности данных в Интернете. Рассказываем про актуальные тренды и новости связанные с защитой.

Платформа Predictim в США ищет «идеальную няню» с использованием искусственного интеллекта: запрет на защиту данных

73

Как-то понятно. Няня для отпрыска должна быть идеальной. Но ваша собственная система искусственного интеллекта, которая изучает деятельность кандидатов в социальных сетях, а затем не дает понятных рекомендаций? Американская платформа Predictim предлагает именно эту услугу — к большому неудовольствию сторонников защиты данных и критиков ИИ.

Все публикации в социальных сетях проверяются

Возьмите тысячи сообщений из Facebook, Twitter и Instagram, которые когда-либо написал кандидат в няни, и позвольте искусственному интеллекту проанализировать их. В результате вы получите очень конкретную информацию о пригодности ребенка в качестве няни или о рисках, предположительно связанных с этим человеком.

Показывают ли социальные сети характер человека?

Например, есть ли у кандидата склонность к употреблению наркотиков. Или есть риск запугивания, неуважения или плохих манер. Все очень просто по балльной системе — 5 баллов — худший результат. Он не раскрывает, как «Predictim» получает результаты. Но родители не против. Например, одна мать считает, что социальные сети очень хорошо показывают характер человека. В общем, в США система получила сенсацию.

Заявитель не видит свой отчет о проверке.

Потенциальные няни должны согласиться на проверку — но, конечно же, сотрудники Predictim оказывают на них давление, чтобы в противном случае у них не было шансов на работу. Родители платят 25 долларов. Вы получите эксклюзивный отчет о просмотре, который также включает заявления о таких характеристиках, как вежливость, командный дух или манеры. Сам заявитель никогда не увидит этот отчет. Система, которая сканирует вашу личность, и вы не знаете, не были ли вы классифицированы как потенциальный психопат — очень приятно …

Человеческий контекст? Ничего такого!

Звучит сомнительно? Различные критики также считают: такие предложения, как Predictim, сопряжены с большим риском того, что решения, изменяющие жизнь, могут даже приниматься автоматически и без реального тестирования. Система работает с алгоритмами черного ящика, которые предоставляют очень мало информации о том, как они разбивают сложную внутреннюю жизнь человека на добрую волю и недобросовестность. Даже Facebook не может отличить безобидные сообщения от сообщений ненависти.

И, конечно же, как сообщает Washington Post, существует определенная склонность к ошибкам. Например, одна кандидатура использовала цитаты из фильмов и песен в своей учетной записи Facebook и поэтому была классифицирована как группа риска. По данным Electronic Frontier Foundation, «человеческий контекст» просто отсутствует. Искуственный интеллект.

Станут ли машины принимать решения о работе в будущем?

Эксперты опасаются развития таких систем, как Predictim. Следует ли в будущем распределять все задания на одну машину? В этом направлении уже есть развитие, многие компании проводят анализ резюме кандидатов. Amazon, например, прекратила разработку алгоритма найма. Потому что последние предпочитали кандидатов-мужчин, основываясь на версии Amazon о том, что в технологической индустрии, где доминируют мужчины, женщины являются менее эффективными кандидатами-женщинами.

Подростков убеждают делиться конфиденциальной информацией

Некоторые эксперты в области искусственного интеллекта считают, что такие системы будут подпитывать предубеждения относительно возраста или этнологического профилирования. Они также обеспокоены тем, что маленьких няней — часто подростков — уговорят отказаться от личной информации личного характера.

Квелле: Вашингтон Пост; Фото: crello.com

Этот веб-сайт использует файлы cookie для улучшения вашего опыта. Мы предполагаем, что вы согласны с этим, но вы можете отказаться, если хотите. ПринимаюПодробнее