Шрифт:
Интервал:
Закладка:
Огромные возможности открываются перед учителем в работе с аудиозаписями и видеороликами. Ранее на составление одного урока по аудированию могло уходить до двух часов. Столько времени требовалось, чтобы понять текст, перенести его частично или полностью в печатную форму, написать аннотацию или обобщить информацию. Благодаря twee.com появляется возможность делать это в десятки раз быстрее; более того, «из коробки» можно получить вопросы по теме видео — как открытых, так и на множественный выбор.
В статье «Лингводидактический потенциал систем искусственного интеллекта» мы уже рассмотрели несколько оригинальных элементов подготовки урока английского языка. Не будем его повторять здесь. Вместо этого в формате лабораторного журнала попробуем создать новый урок на развитие навыков аудирования.
Лабораторный журнал — особый жанр, на его страницах много рефлексии, много ненужного. Даже неудачные попытки остаются записанными.
Может показаться, что на урок затрачено более двух часов. Нет. Много времени требуется на начальном этапе, когда создается структура урока, закладывается изначальная логика. После того как уже есть понимание целей и средств, на поиск и адаптацию уходит не более двадцати минут. И на урок из примера потребовалось около получаса. Гораздо больше времени ушло на запись действий.
Очень надеемся, что примеры выше вдохновят кого-то на более системное изучение чего-либо, а пример лабораторного журнала подтолкнет учителей к созданию уникальных уроков. Однако, как и у всего в этом мире, у подобного автоматически созданного материала есть цена. Высокая она или низкая — решайте сами, но мы попробуем разобраться и в этом аспекте использования ИИ.
ChatGPT — не просто балаболка, а относительно умный партнер по коммуникации
Однажды в весьма интересное сообщество, посвященное управлению знаниями, администрация подселила интеллектуального бота, работающего на ChatGP T. Это привело к уникальной ситуации: участники перестали общаться друг с другом, а вместо этого со всеми вопросами по теме и не только обращались к боту.
Всего за месяц общение участников сошло на нет, а бот без устали отрабатывал запросы, которые иногда были вполне осознанными и любопытными, но часто откровенно глупыми. Например, по этой ссылке: t.me/Zettelkasten_ru/107535/109513 — можно прочитать забавную дискуссию о частушках. В целом раздел «Спроси у ChatGPT» (t.me/Zettelkasten_ru/107535) может дать богатую почву для размышлений. Но когда мы спросили отдельных участников сообщества, почему вместо человеческого общения они выбирают бота, то получили весьма неожиданную обратную связь. Например, один из участников рассказал, что обращается к боту с вопросами, с которыми не пойдет к другому человеку; возможно, даже не обратится к психотерапевту.
В 1965 году уже была попытка создать что-то подобное: машину, которая говорит с человеком и создает иллюзию эмоциональной привязанности. Джозеф Вейценбаум разработал первый чатбот, который использовал естественный язык для общения с человеком. Чтобы поддержать диалог, Вейценбаум использовал прием клиентоцентрированной психотерапии, поддерживающий и фасилитирующий взаимоотношения. А если еще проще, то в момент, когда пользователь отправлял компьютеру сообщение, «Элиза» (чат-бот) анализировала текст на наличие ключевых слов, которые и использовала в своем ответе. Она брала идею исходного сообщения и трансформировала ее.
ФРАГМЕНТ ДИАЛОГА МЕЖДУ ЧЕЛОВЕКОМ И МАШИНОЙ
Человек. Мужчины все одинаковые.
Компьютер. В ЧЕМ?
Человек. Они постоянно нас чем-то достают.
Компьютер. ВЫ МОЖЕТЕ ПРИВЕСТИ КОНКРЕТНЫЙ ПРИМЕР?
Человек. Ну, мой парень заставил меня прийти сюда.
Компьютер. ТВОЙ ПАРЕНЬ ЗАСТАВИЛ ТЕБЯ ПРИЙТИ СЮДА?
Человек. Он говорит, что я большую часть времени нахожусь в депрессии.
Компьютер. МНЕ ЖАЛЬ СЛЫШАТЬ, ЧТО У ВАС ДЕПРЕССИЯ
Человек. Это правда. Я несчастна.
Компьютер. …
Чтобы проверить способность «Элизы» к коммуникации с собеседником, Вейценбаум приглашал студентов и коллег в свой офис и предлагал им поговорить с машиной, а сам наблюдал за ними и записывал. Неожиданностью стал факт эмоциональной связи между человеком и машиной. Люди открывались перед ней и рассказывали о проблемах, с которыми сталкивались в жизни и взаимоотношениях. Эмоции сохранялись даже после того, как Вейценбаум объяснял принципы работы машины и алгоритм формирования ею ответов. Он особо акцентировал внимание испытуемых на том, что машина не понимает, о чем говорит человек, а лишь рефлексирует по поводу отправленного им текста. Еще более удивительно то, что секретарь Вейценбаума, видевшая его работу и понимавшая, что это всего лишь машина, попросила его разрешения поговорить с ней лично, без наблюдателей.
«Элиза» наглядно продемонстрировала, что осознанная коммуникация возможна и в том случае, когда сознание имеется только у одного партнера. Симуляции интеллекта достаточно, чтобы ввести человека в заблуждение. Позже Вейценбаум придумал этому явлению название — «Эффект Элизы». Он считал, что подобным «бредомышлением», когда один бредит, а другой наделяет его слова личным смыслом, человечество будет страдать и в цифровую эпоху. Кажется, он был не так уже и неправ. Этого хватило, чтобы определить дальнейшую работу ученого на десятилетия вперед, и тезис исследования звучит так: симуляции интеллекта достаточно, чтобы одурачить человека.
В своей книге «Компьютерная мощность и человеческий разум» Вейценбаум размышляет о том, что «Эффект Элизы» — симптом значительно более серьезной патологии. В мире, где правят наука и технологии, человек испытывает чувство одиночества, будучи окруженным людьми. Он видит себя винтиком огромной социальной машины. В условиях, когда социальные связи увядают, личное общение становится предметом роскоши, и человек в порыве отчаяния пытается найти эмпатию и эмоции у машины. Хотя здравый смысл говорит, что это невозможно, человек рационализирует, что машине его проблемы гораздо важнее, чем другому человеку, и использует ее, «чтобы поговорить».
«Эффект Элизы» — полная противоположность «комплексу Франкенштейна». Там, где Азимов искал способы донести до человека ценность технологии, пользу интеллектуальной машины, Вейценбаум пошел по иному пути. До конца жизни он формулировал «критический взгляд здравого человека» на ИИ и цифровые технологии. Он считал делом своей жизни донести до человечества мысль, что умная машина — не такая умная, как кажется или как нам ее представляют. И даже если мы воображаем, будто машина нас слушает, ей на самом деле нет никакого дела до наших проблем и переживаний.
Натренируем ИИ на роль психотерапевта
Изначально не хотелось писать об этом аспекте использования ИИ, но мы убеждены: данный материал многим будет полезен. Единственное, что стоит помнить: это машина, а не дипломированный специалист, у нее могут быть ограниченные познания в области психологии, но мы это делаем ради эксперимента. Интересно узнать про ваш опыт общения. Если таковой у вас есть и там нет ничего интимного, поделитесь им с нами в письме по электронной почте или в соцсетях.
Для тренировки мы использовали GPT-4. Первым действием попросили ChatGPT рассказать нам, какие инструменты психотерапии он знает.