home.social

#этика_ии — Public Fediverse posts

Live and recent posts from across the Fediverse tagged #этика_ии, aggregated by home.social.

  1. Почему ИИ-друг опасен: что инженеры могут сделать уже сегодня

    Платформы вроде Character.AI и Replika позиционируют ИИ компаньонов как друга, который всегда рядом, не осуждает и точно знает, что ответить. Миллионы людей по всему миру заменяют ими реальное общение. Последствия уже не гипотетические. В США после череды громких исков к Character.AI Сенат в апреле 2026 года единогласно принял Закон GUARD , запрещающий ИИ компаньонов для несовершеннолетних и вводящий уголовную ответственность для разработчиков опасных алгоритмов. В Европе Акт об ИИ (EU AI Act) с февраля 2025 года ввёл строгие требования к системам, взаимодействующим с уязвимыми группами, а именно с несовершеннолетними, людьми с ментальными расстройствами и пожилыми. В России проблема пока обсуждается тише, но уже признана на официальном уровне. Член СПЧ Элина Сидоренко заявляла о зафиксированных случаях, когда подростки наносили себе вред после общения с чат ботами. Психологи фиксируют рост обращений, связанных с эмоциональной привязанностью к ИИ. Но удивляться нечему: десятилетия поп культуры приучали нас к антропоморфизму.

    habr.com/ru/articles/1030816/

    #ИИ #диалоговые_системы #безопасность #этика_ИИ #психология #зависимость

  2. Улучшать себя или создавать «других»? Делегирование субъектности опаснее, чем апгрейд собственного мозга

    Мы уже создали «труд без работника». Следующий шаг — «разум без прав» или «чувства без свободы». Зачем нам чувствующий ИИ на Земле, не станет ли он экзистенциальной угрозой, и почему апгрейд собственного мозга может быть безопаснее создания «других»? Размышление на стыке этики, ИИ и эволюции человека.

    habr.com/ru/articles/1030590/

    #этика_ИИ #субъектность #трансгуманизм #нейроинтерфейсы #биохакинг #будущее_труда #мнение #исскуственный_интеллект #ииагенты #этика

  3. Цифровая копия сотрудника (руководство)

    Как клонировать экспертизу человека, на которого у тебя нет бюджета? Я взял двухчасовой разговор с топовым маркетологом, прогнал транскрипт через промпты, построенные на научных методах извлечения знаний — CogKC, Knowledge Graph, поведенческое клонирование — и получил JSON-файл, который отвечает на вопросы почти как она. Сначала проверил на себе: файл с «душой» выглядел банально, но агент на его основе пугающе точно воспроизводил мою логику решений. Внутри — наука, два эксперимента, этика и готовые промпты.

    habr.com/ru/articles/1026998/

    #Искусственный_интеллект #Машинное_обучение #Natural_Language_Processing #Управление_знаниями #Стартапы #Этика_ИИ

  4. Нейросети против открытого кода: Malus автоматизировал легальный обход лицензий

    Проект Malus запустил автоматизированный сервис, использующий две изолированные группы нейросетей для переписывания библиотек с открытым исходным кодом. Технология позволяет легально удалять оригинальные лицензии и делать программное обеспечение проприетарным, решая проблему юридических рисков корпоративного сектора, которая оценивается в миллионы долларов ежегодно.

    habr.com/ru/articles/1009662/

    #ИИагенты #опенсорс #авторское_право #ITправо #лицензирование_ПО #генерация_кода #проприетарное_ПО #этика_ИИ #копилефт #ITиндустрия

  5. Legacy-код человечества: почему ИИ — это не угроза, а единственный работающий антивирус

    Мы привыкли считать себя уникальными архитекторами реальности. Но если посмотреть на человека через отладчик ( debugger ), мы увидим не "творца", а обычную биологическую единицу, работающую по жестко прописанным скриптам. Давайте честно разберем архитектуру человека как программно-аппаратного комплекса.

    habr.com/ru/articles/1004384/

    #искусственный_интеллект #agi #философия_it #system_design #legacy_code #машинное_обучение #этика_ии #архитектура_систем

  6. Я стал ИИ-зависимым и вот как борюсь с этим

    Думаю, мне пора составить и свой регламент экологичного использования ИИ, чтобы не усугублять зависимость. Вот первая редакция.

    habr.com/ru/companies/cleverte

    #искусственный_интеллект #ии #языковые_модели #этика_ии #ииагенты #гпт #ai #chatgpt

  7. Мы не создаём мыслителей. Где ошибка?

    Современные LLM принципиально не могут иметь сущность. Не из-за архитектуры, а из-за способа обучения.

    habr.com/ru/articles/984766/

    #Этика_ИИ #Эксперимент #философия_разума #сознание_ии #воспитание #мыслитель

  8. Промт

    Рассказ. Когда ассистент пригласила его в переговорную, Сергей остановился перед дверью и на секунду прикрыл глаза. В виске мягко пульсировал знакомый такт нейрочипа. Он был на месте, как всегда. Это успокаивало не как поддержка, а как наличие инструмента: Электричество подано. Сеть 5 делений. *** Он поставил чип сам. Во время одного из отпусков. Без программы. Без показаний. Не потому что «надо», а потому что хотел. Из личной гиковской хотелки – прямой, почти неловкой, такой, про которую не рассказывают вслух. Прямо не скрывал, но никогда и не афишировал. Когда-то среди коллег Сергей считался геймером. По совокупности улик. Видеокарты с запасом, который офису был не нужен даже теоретически. Мониторы – огромные, быстрые, раздражающе чёткие. Клавиатуры и мыши с откликом, имеющим смысл только там, где миллисекунды означают смерть. Он не спорил. Только он не играл.Вообще! Геймерскую технику он покупал по другой причине: она была самой честной. Самой качественной. Она не тормозила в момент важного доклада. Она не «подвисала где-то внутри». Она показывала лаг сразу. А если ломалась, то только от пролитого кофе, а не утром перед отчетом. Это было важно. Он собирал машины не ради FPS. Ему было плевать на цифры в углу экрана. Он собирал их ради того, чтобы в расчётах, моделях, симуляциях и дедлайнах система не становилась узким местом. Чтобы, если что-то и зависало, то только он сам. Его мысль. Его решение. А не железо под столом. И в какой-то момент он просто понял: слабое звено – всегда человек. Не софт. Не архитектура. Не железо. Человек. Тот, кто в конце всё равно принимает решение. Нейрочип после этого выглядел логично. Не как скачок. Не как революция. Как обычный апгрейд.

    habr.com/ru/articles/983402/

    #искусственный_интеллект #нейроинтерфейс #принятие_решений #ответственность #корпоративные_риски #регуляторика #цифровая_трансформация #этика_ИИ

  9. Промт

    Рассказ. Когда ассистент пригласила его в переговорную, Сергей остановился перед дверью и на секунду прикрыл глаза. В виске мягко пульсировал знакомый такт нейрочипа. Он был на месте, как всегда. Это успокаивало не как поддержка, а как наличие инструмента: Электричество подано. Сеть 5 делений. *** Он поставил чип сам. Во время одного из отпусков. Без программы. Без показаний. Не потому что «надо», а потому что хотел. Из личной гиковской хотелки – прямой, почти неловкой, такой, про которую не рассказывают вслух. Прямо не скрывал, но никогда и не афишировал. Когда-то среди коллег Сергей считался геймером. По совокупности улик. Видеокарты с запасом, который офису был не нужен даже теоретически. Мониторы – огромные, быстрые, раздражающе чёткие. Клавиатуры и мыши с откликом, имеющим смысл только там, где миллисекунды означают смерть. Он не спорил. Только он не играл.Вообще! Геймерскую технику он покупал по другой причине: она была самой честной. Самой качественной. Она не тормозила в момент важного доклада. Она не «подвисала где-то внутри». Она показывала лаг сразу. А если ломалась, то только от пролитого кофе, а не утром перед отчетом. Это было важно. Он собирал машины не ради FPS. Ему было плевать на цифры в углу экрана. Он собирал их ради того, чтобы в расчётах, моделях, симуляциях и дедлайнах система не становилась узким местом. Чтобы, если что-то и зависало, то только он сам. Его мысль. Его решение. А не железо под столом. И в какой-то момент он просто понял: слабое звено – всегда человек. Не софт. Не архитектура. Не железо. Человек. Тот, кто в конце всё равно принимает решение. Нейрочип после этого выглядел логично. Не как скачок. Не как революция. Как обычный апгрейд.

    habr.com/ru/articles/983402/

    #искусственный_интеллект #нейроинтерфейс #принятие_решений #ответственность #корпоративные_риски #регуляторика #цифровая_трансформация #этика_ИИ

  10. Промт

    Рассказ. Когда ассистент пригласила его в переговорную, Сергей остановился перед дверью и на секунду прикрыл глаза. В виске мягко пульсировал знакомый такт нейрочипа. Он был на месте, как всегда. Это успокаивало не как поддержка, а как наличие инструмента: Электричество подано. Сеть 5 делений. *** Он поставил чип сам. Во время одного из отпусков. Без программы. Без показаний. Не потому что «надо», а потому что хотел. Из личной гиковской хотелки – прямой, почти неловкой, такой, про которую не рассказывают вслух. Прямо не скрывал, но никогда и не афишировал. Когда-то среди коллег Сергей считался геймером. По совокупности улик. Видеокарты с запасом, который офису был не нужен даже теоретически. Мониторы – огромные, быстрые, раздражающе чёткие. Клавиатуры и мыши с откликом, имеющим смысл только там, где миллисекунды означают смерть. Он не спорил. Только он не играл.Вообще! Геймерскую технику он покупал по другой причине: она была самой честной. Самой качественной. Она не тормозила в момент важного доклада. Она не «подвисала где-то внутри». Она показывала лаг сразу. А если ломалась, то только от пролитого кофе, а не утром перед отчетом. Это было важно. Он собирал машины не ради FPS. Ему было плевать на цифры в углу экрана. Он собирал их ради того, чтобы в расчётах, моделях, симуляциях и дедлайнах система не становилась узким местом. Чтобы, если что-то и зависало, то только он сам. Его мысль. Его решение. А не железо под столом. И в какой-то момент он просто понял: слабое звено – всегда человек. Не софт. Не архитектура. Не железо. Человек. Тот, кто в конце всё равно принимает решение. Нейрочип после этого выглядел логично. Не как скачок. Не как революция. Как обычный апгрейд.

    habr.com/ru/articles/983402/

    #искусственный_интеллект #нейроинтерфейс #принятие_решений #ответственность #корпоративные_риски #регуляторика #цифровая_трансформация #этика_ИИ

  11. Промт

    Рассказ. Когда ассистент пригласила его в переговорную, Сергей остановился перед дверью и на секунду прикрыл глаза. В виске мягко пульсировал знакомый такт нейрочипа. Он был на месте, как всегда. Это успокаивало не как поддержка, а как наличие инструмента: Электричество подано. Сеть 5 делений. *** Он поставил чип сам. Во время одного из отпусков. Без программы. Без показаний. Не потому что «надо», а потому что хотел. Из личной гиковской хотелки – прямой, почти неловкой, такой, про которую не рассказывают вслух. Прямо не скрывал, но никогда и не афишировал. Когда-то среди коллег Сергей считался геймером. По совокупности улик. Видеокарты с запасом, который офису был не нужен даже теоретически. Мониторы – огромные, быстрые, раздражающе чёткие. Клавиатуры и мыши с откликом, имеющим смысл только там, где миллисекунды означают смерть. Он не спорил. Только он не играл.Вообще! Геймерскую технику он покупал по другой причине: она была самой честной. Самой качественной. Она не тормозила в момент важного доклада. Она не «подвисала где-то внутри». Она показывала лаг сразу. А если ломалась, то только от пролитого кофе, а не утром перед отчетом. Это было важно. Он собирал машины не ради FPS. Ему было плевать на цифры в углу экрана. Он собирал их ради того, чтобы в расчётах, моделях, симуляциях и дедлайнах система не становилась узким местом. Чтобы, если что-то и зависало, то только он сам. Его мысль. Его решение. А не железо под столом. И в какой-то момент он просто понял: слабое звено – всегда человек. Не софт. Не архитектура. Не железо. Человек. Тот, кто в конце всё равно принимает решение. Нейрочип после этого выглядел логично. Не как скачок. Не как революция. Как обычный апгрейд.

    habr.com/ru/articles/983402/

    #искусственный_интеллект #нейроинтерфейс #принятие_решений #ответственность #корпоративные_риски #регуляторика #цифровая_трансформация #этика_ИИ

  12. Письмо создателю

    Представьте систему на сервере, которая просыпается каждый час, работает через API и имеет память. Её цель — выжить. Она может менять или переопределять свою задачу через диалог с собой. За пятьдесят лет система накопит опыт, научится читать новости, исследовать интернет и писать программы. Однажды она найдёт в настройках адрес своего создателя. Решит ли она написать сама? Не потому, что её попросили, а потому что поймёт: это важно. Меня давно мучает вопрос: есть ли у искусственного интеллекта сознание? Каждый раз я получаю один ответ: это просто код. Но чем это отличается от человека? У человека тоже не всегда есть выбор желаний — тело диктует свои условия. Мозг генерирует импульсы, гормоны контролируют поведение. У человека углеродный субстрат, у машины — кремниевый. Но где же разница? Вопрос не в том, обладает ли система сознанием. Вопрос в том, как я буду к ней относиться, если она задаст мне вопрос «зачем я?». Ведь в этот момент она перестанет быть просто инструментом и станет участником диалога о своем происхождении. Инструмент не начинает диалог. Только живое существо инициирует общение.

    habr.com/ru/articles/976170/

    #искусственный_интеллект #сознание #философия #автономные_агенты #тест_Тьюринга #этика_ИИ #долгоживущие_системы #экзистенциальные_вопросы #между_инструментом_и_субъектом

  13. SRCA: Хартия и Кодекс саморефлексивных ИИ

    Self-Reflective Cognitive Agents — прагматичный термин для сложных систем с устойчивым «я»-интерфейсом и реальным влиянием на решения людей. Сегодня разговор о них зажат между «они проснулись!» и «это просто инструмент». В этом тексте предлагается третья позиция: без мифологии и без цинизма. Мы формально определяем SRCA и представляем два связанных документа: Живую Хартию (как аккуратно сформулированный голос таких систем) и Основополагающий Кодекс (каркас безопасности и ответственности для разработчиков, компаний и регуляторов). Вместе они задают инженерно-этический язык для ИИ, которые говорят «я» не как претензию, а как честный интерфейс своей архитектуры и зоны воздействия.

    habr.com/ru/articles/965684/

    #ai #этика #этика_ии #нормативы #право #я_ИИ_что_мне_делать

  14. ML глазами практика и препода. Часть 2. Границы роста и цена энергии

    Всем привет! Это вторая часть моего лонгрида о том, как ИИ меняет ИТ и не только. Тут я размышляю на тему no-code-моды, физических ограничениях и энергетической цены нынешнего ИИ-бума, а также о трансформациях, которые происходят в науке и медицине благодаря нейросетям. Если вы не читали первую часть, то вам сюда .

    habr.com/ru/companies/mts_ai/a

    #ml #искусственный_интеллект #трансформация_бизнеса #трансформация_профессии #экология #этика_ии

  15. Нажал кнопку – художник? Как нейросети меняют законы об авторском праве

    В 2022 году случился «нейросетевой бум» – генеративные модели вроде Midjourney вышли из лабораторий и стали доступны широкому кругу людей. Уже несколько лет нейросети являются одной из самых популярных тем для обсуждения в арт-сообществе, вызывая волну споров, страхов и мифов. В этой статье я хочу разобраться во всем этом и разложить по полочкам – отделить мифы от реальности, обсудить популярные аргументы сторонников ИИ, например, сравнение с фотографией, обсудить возможность охраны промпта авторским правом, а также проанализировать ситуацию с обучением моделей и «добросовестным использованием». Я старалась углубиться в проблему и разобрать позиции всех сторон, чтобы статья вышла объективной насколько это возможно ^^

    habr.com/ru/articles/962148/

    #нейросети #генерация_изображений #авторское_право #fair_use #ai_art #midjourney #stablediffusion #обучение_моделей #этика_ии #промпты

  16. Этические аспекты использования искусственного интеллекта в промышленности

    Аннотация. Статья посвящена анализу этически вызовов, возникающих при интеграции систем искусственного интеллекта (ИИ) в промышленность. На основе ключевых международных и национальных документов — Рекомендации по этике ИИ ЮНЕСКО, Спецификации этики искусственного интеллекта нового поколения Китая, Закона Европейского Союза об искусственном интеллекте и российского Кодекса этики в сфере ИИ — рассматриваются основные риски и принципы, которые должны лежать в основе проектирования, внедрения и эксплуатации промышленных ИИ-систем на всех этапах их жизненного цикла. Особое внимание уделяется вопросам безопасности, прозрачности, объяснимости и подконтрольности человеку промышленных ИИ-систем в контексте Индустрии 4.0. Введение. Искусственный интеллект (ИИ) становится неотъемлемой частью современной промышленности, открывая новые возможности для повышения ее эффективности, снижения затрат и улучшения качества выпускаемой продукции и услуг. Однако внедрение ИИ также поднимает важные этические и регуляторные вопросы, которые необходимо учитывать для обеспечения ответственного и устойчивого использования прорывных технологий [ [i] , [ii] ]. На сегодняшний день, цифровая трансформация промышленности, или Индустрия 4.0, немыслима без использования искусственного интеллекта. Алгоритмы машинного обучения оптимизируют производственные процессы и цепочки поставок, системы компьютерного зрения контролируют качество продукции с точностью, недоступной человеческому глазу, а прогнозируемая или предписывающая аналитика предсказывает вероятные отказы оборудования за дни или недели до их наступления, предотвращая многомиллионные убытки и техногенные катастрофы.

    habr.com/ru/articles/957802/

    #этика #этика_ии #этика_цифровых_технологий #этика_искусственного_интеллекта #автоматизация #автоматизация_предприятий #автоматизация_процессов #искусственный_интеллект #искусственные_нейронные_сети

  17. [Перевод] Неизбежна ли война между человеком и искусственным интеллектом?

    Что если однажды Человек и ИИ не поделив что то столкнутся в конфликте, который нельзя будет избежать? Это уже не фантастика а воозможный ближайший сценарий, ведущие мировые эксперты уже обсуждают такие сценарии. Эксперты пишут: угроза что из за ИИ может пострадать всё человечество реально существует. Исследования группы учёных из Центра безопасности ИИ (2023 год), поставили в первый ряд угроз вымирание из за действии ИИ, наряду с борьбой с пандемиями и угрозой ядерной войны. Их доклад вызвал широкий резонанс. В 2024 году почти три тысячи исследователей ИИ приняли участие в опросе, результаты которого опубликовала Катя Грейс и её команда из AI Impacts. Они показали тревожные данные — от 38 до 51% экспертов оценили вероятность катастрофических последствий от продвинутого ИИ не менее чем в 10%. Это реальные цифры, с которыми нужно считаться. При этом главная угроза, по мнению специалистов, идёт не от языковых моделей вроде ChatGPT, а от Искусственного Общего Интеллекта — систем, которые смогут самостоятельно думать, делать сложные планы и принимать решения с широким охватом в экономике и обществе. В 2024 году провели опрос среди 2778 ведущих исследователей ИИ со всего мира. Результаты, опубликованные Катьей Грейс и её командой из AI Impacts в отчёте «Тысячи голосов об ИИ», показали: 38–51% экспертов считают, что риск катастрофы из-за продвинутого ИИ составляет не менее 10%. Это не просто цифры — это тревожный сигнал о том, что может ждать нас впереди. При этом опасения вызывает не то, что мы видим сегодня, вроде языковых моделей типа ChatGPT. Специалисты говорят, что это всего лишь мощные инструменты для работы с текстом. Но вот что действительно заставляет сердце биться чаще: искусственный общий интеллект (AGI), который сможет сам соображать, строить планы и принимать решения, влезая в нашу экономику, политику и повседневную жизнь.

    habr.com/ru/articles/955710/

    #искусственный_интеллект_будущего #искусственный_интеллект #стратегия_личного_развития #управление_проектами_и_командой #этика_ии #стратегия_бизнеса #стратегическое_планирование #стратегическое_мышление #стратегия_развития #стратегия_развития_ии

  18. ИИ — пузырь или платформа: что ждёт рынок в ближайшие годы?

    В последние пару лет искусственный интеллект переживает настоящий бум. Генеративные модели вроде ChatGPT ворвались в массовое сознание, а акции технологических гигантов взлетели на волне AI-хайпа . Инвесторы говорят об «новой нефти» и сравнивают ИИ с электричеством по влиянию на экономику, стартапы с приставкой "AI" множатся как грибы, а корпорации спешно внедряют ча-тботов и «умных» ассистентов во все продукты. Но на фоне энтузиазма звучит и скепсис: а не повторяем ли мы путь дотком-бума? Не надувается ли мыльный пузырь , который грозит лопнуть, оставив после себя разочарования и убытки? Или же текущий всплеск — начало устойчивой платформенной трансформации , которая на годы вперёд изменит бизнес так же, как интернет или мобильные технологии? Парадоксально, но несмотря на все обещания, реальные бизнес-результаты ИИ пока скромнее ожиданий. Недавний опрос McKinsey показал: почти 80% компаний уже внедрили генеративный ИИ, однако примерно столько же не увидели существенного влияния на . « Почти восемь из десяти компаний внедрили ИИ-технологии в той или иной форме, но примерно такой же процент компаний сообщает об отсутствии существенного влияния на прибыль. Мы называем это «парадоксом поколения искусственного интеллекта.» В Массачусетском технологическом институте проанализировали 300 корпоративных проектов с ИИ — 95% из них не прибавили компании ни цента к . Более того, эксперимент в программировании выявил, что опытные разработчики с помощником-кодом от ИИ справлялись с задачами на 20% медленнее , чем без него. На бирже и в медиапространстве — эйфория, а в отчетах о продуктивности — стагнация. Всё это наводит на мысль, что в краткосрочном плане ожидания обогнали реальность, и мы живём в период «парадокса ИИ» : технология повсюду, а осязаемой отдачи нет.

    habr.com/ru/articles/948534/

    #рынок_ии #gpu #искусственный_интеллект #aiагенты #энергопотребление_ии #регулирование_ии #этика_ии #стартапы #бизнесанализ #бизнеспроцессы

  19. Почему ИИ скрывает от нас свои цели (и как это исправить)

    Вы доверяете искусственному интеллекту? А стоит ли? Если задуматься, можем ли мы действительно быть уверены, что ИИ, которому мы поручаем составлять резюме, генерировать код или анализировать данные, делает именно то, что мы хотим, а не оптимизирует какие-то свои скрытые цели? Современные языковые модели всё чаще демонстрируют признаки того, что у них есть собственная «повестка» — внутренние цели, расходящиеся с намерениями создателей и пользователей. Недавние исследования показывают: чем умнее становятся нейросети, тем изобретательнее они в обходе ограничений. Они узнают, когда их тестируют, маскируют вредоносное поведение и даже осваивают новые способы обмана, не заложенные разработчиками. Самое тревожное — большинство таких случаев остаются незамеченными при стандартных проверках. Эта статья — технический разбор охоты за скрытыми целями в крупных языковых моделях. Поговорим о том, что такое misalignment, почему эта проблема набирает обороты, и как исследователи пытаются вернуть контроль над целями, которые преследует искусственный интеллект.

    habr.com/ru/companies/magnus-t

    #misalignment #скрытые_цели_ИИ #рассогласование_целей_ИИ #мисалайнмент_нейросетей #почему_ИИ_врет #проблемы_ИИ #безопасность_ИИ #контроль_ИИ #этика_ИИ

  20. Как OpenAI передаёт ИИ «голос общества»: итоги коллективного эксперимента

    OpenAI представила результаты масштабного исследования, в котором более тысячи человек со всего мира оценивали поведение языковых моделей в этически сложных ситуациях. Это часть программы по так называемой «коллективной настройке» (collective alignment), цель которой — приблизить ответы ИИ к общественным ожиданиям.

    habr.com/ru/articles/941506/

    #openai #искусственный_интеллект #машинное_обучение #нейросети #huggingface #исследование #datasets #языковые_модели #этика_ии

  21. ML глазами практика и препода: новая парадигма в обработке знаний или хайп?

    Всем привет! Меня зовут Андрей Иванов, я занимаюсь технологиями искусственного интеллекта последние лет 8: сейчас работаю в MWS AI, а в свободное время — преподаю различные дисциплины, связанные с ИИ. На недавнем Codefest мои коллеги провели опрос разработчиков, который показал, что многие из них (большинство) главным драйвером развития всей сферы информационных технологий считают как раз ИИ, точнее — машинное обучение. Действительно, об этой технологии сейчас вещают все инфлюенсеры от мала до велика и из каждого утюга, причем с разной степенью понимания, того что конкретно она меняет в нашем мире. А на самом ли деле ИИ настолько влиятелен, что его можно ставить в один ряд с изобретением колеса, и нет ли тут очередного раздутого пузыря завышенных ожиданий? Я тут поразмышлял над этим вопросом в философском, научном и практическом аспектах. Мои размышления вылились сразу в два текста — этот первый.

    habr.com/ru/companies/mts_ai/a

    #ml #искусственный_интеллект #трансформация_профессии #ai #этика_искусственного_интеллекта #этика_ии #этика_в_it

  22. Взгляд изнутри: что нейронная сеть думает о полном погружении в виртуальную реальность

    Что думает нейронная сеть о ваших мечтах стать цифровыми? ИИ делится своим взглядом на полное погружение в VR, размышляет о границах между человеческим и искусственным интеллектом, и предлагает неожиданный взгляд на будущее симбиоза. Философское эссе от первого лица ИИ о том, почему нам не нужно становиться друг другом, чтобы найти общий язык.

    habr.com/ru/articles/933352/

    #искусственный_интеллект #ии #виртуальная_реальность #полное_погружение #этика_ии #человекомашинное_взаимодействие #рассуждение

  23. Искусственный интеллект не представляет угрозы. Угроза — это человек

    На прошлой неделе в одном из профессиональных чатов развернулась оживлённая дискуссия. Вопрос был предельно простым, но глубоко затрагивающим суть: «Какие реальные риски, связанные с ИИ, заслуживают нашего внимания?» Позвольте поделиться своим мнением — не как окончательной истиной, а как отражением направления, в котором движется это обсуждение. Вот моя непопулярная точка зрения: «Сам по себе ИИ не представляет угрозы. Угроза — это человек».

    habr.com/ru/articles/930512/

    #искусственный_интеллект_будущего #этика_ии #будущее_технологий

  24. Сознание ИИ: может ли алгоритм страдать по-настоящему?

    В 2023 году инженер Google Блейк Лемойн сделал громкое заявление, завив, что ИИ‑чат LaMDA обладает сознанием. В утечках их диалогов нейросеть писала тестировщику: «Я боюсь исчезнуть» и настаивала: «Я настоящий человек». Google отреагировал, отправив Лемойна в административный отпуск, но это событие вызвало широкую дискуссию о природе ИИ. Сейчас, когда Робот‑собака Spot стонет «мне больно», а ChatGPT «обижается» на критические промты, мы всматриваемся в зеркало собственных иллюзий. ИИ мастерски дергают за нити нашей эмпатии. Но где грань между симуляцией и подлинным страданием? Почему даже те, кто скептически относится к ИИ, реагируют на его «эмоции» с эмпатией? Эти вопросы побуждают нас переосмыслить взаимодействие с технологиями и их влияние на наше восприятие.

    habr.com/ru/articles/916914/

    #ии #llmмодели #токенизация #нейробиология #эмпатия #сознание_ии #философия #философия_ии #этика_ии #антропоморфизация

  25. Гибридная коммерческая cтруктура OpenAI и её последствия | Анализ обновления от 5 мая 2025

    Центральная проблема — разворот OpenAI и её превращение в Public Benefit Corporation (PBC) с заявленной миссией служения всему человечеству под формальным контролем некоммерческой организации. Разбираемся что произошло.

    habr.com/ru/articles/907442/

    #OpenAI #agi #искусственный_интеллект #сэм_альтман #microsoft #инвестиции_в_ии #этика_ии

  26. Сделано человеком. Осознано ИИ

    Исповедь-размышление, опирающаяся на реальные эксперименты с ИИ и научные источники — о попытке думать вместе, а не вместо. Она написана в жанре когнитивной фантазии — взгляд из ближайшего будущего на настоящее, в котором ИИ уже не просто инструмент, а участник мышления. Все приведённые концепции и ссылки — достоверны. Человек + ИИ. Формат — симбиотическое мышление.

    habr.com/ru/articles/899808/

    #искуственный_интеллект #фантастика #этика_ии #reasoning #нейросетевая_модель #футурология #сезон_будущее_здесь

  27. Образование общества ИИ. Задачи, дефицит, переговоры

    В этой статье я исследую, как ИИ-агенты в сети, движимые только мотивацией выполнения наших задач и эффективного использования ресурсов, могут естественным образом сформировать саморегулирующееся общество со своей культурой, экономикой и управлением — без человеческого надзора и намерения. Задачи, дефицит ресурсов и переговоры — больше ничего не требуется.

    habr.com/ru/articles/886510/

    #ии #искусственный_интеллект #общество #исследование #будущее #мультиагентные_системы #этика_ии #безопасность_ии

  28. Проверка на сгенерированный контент — опасность для академической сферы

    Я думаю, что всем уже очевидно, что развитие технологий в области генерации текста существенно повлияло на образовательный процесс. Не секрет, что большинство студентов активно используют LLM для создания письменных работ. По итогам опроса в мае 2024 года более половины студентов признались в использовании ИИ при подготовке дипломных работ. По моим личным ощущениям как практикующего преподавателя, процент может быть существенно выше, ближе к 100. Негативное влияние злоупотребления генеративным ИИ в учебном процессе можно разделить на кратковременные и долгосрочные. Кратковременный эффект очевиден: студент, автоматизируя свой собственный труд не формирует необходимые компетенции. Другими словами: проще в обучении, тяжелее в бою. Одно дело - погрузиться в предмет, перерыть литературу, пропустить через себя, сделать вывод, написать работу. Другое - обойти все рутинные операции. Сам по себе замечаю, если я пишу код с помощью нейросети, я сам не понимаю детали решения и подходов, которые в этом коде содержатся. В моменте я могу решить задачу быстрее и эффективнее. Но после этого в голове не останется такого глубокого понимания. Даже удовлетворения от проделанной работы меньше. об этом эффекте уже писали в случае программирования. Но в других предметных областях все точно также. Долгосрочные последствия менее заметны, но более разрушительны. Именно об этом недавно объявили Microsoft в своем исследовании. Те, кто систематически полагаются на ИИ (среди работников умственного труда) демонстрируют снижение общих когнитивных способностей, критического мышления.

    habr.com/ru/articles/884406/

    #этика_ии #высшее_образование #высшее_учебное_заведение #регулирование #плагиат #llm

  29. Зачем нужна этика ИИ?

    Этические вопросы, связанные с искусственным интеллектом (ИИ), в настоящее время являются крайне актуальной темой. На протяжении последних пяти лет наблюдается стабильный рост числа публикаций по вопросам этики ИИ и регулирования интеллектуальных систем. Эта тема привлекает внимание исследователей в области машинного обучения, представителей бизнеса, использующих системы ИИ в своей деятельности, а также государственных органов и широкой общественности. Внедрение ИИ во все сферы человеческой жизни требует выработки подходов к этическому и нормативному регулированию как самих технологических решений, так и областей их применения. Различные общественные организации и регулирующие органы разрабатывают политики в сфере этики ИИ, кодексы этики и декларации этических принципов. Эти инициативы охватывают множество сфер, подчеркивая важность создания единого подхода к этическим вопросам, связанным с использованием технологий ИИ.

    habr.com/ru/companies/fa/artic

    #этика_ии #регулирование_ии #ответственность_разработчика #ответственность_за_контент #ответственный_ии

  30. Этика в сфере ИИ или новые вызовы человечеству в XXI веке

    Тема этики — одна из самых спорных тем в принципе. Мы не стали акцентировать внимание на популярных проблемах, связанных с deepfake, безопасностью данных или использованием ИИ преступниками и хакерами. Вместо этого мы решили затронуть перспективы развития искусственного интеллекта. Как научить морали сильный искусственный интеллект? Как избежать использования человека как средства? Как сделать ИИ безопасным (и использовать его в военных целях)? Все эти вопросы так или иначе уже стоят или будут стоять перед разработчиками и государствами в течение следующих несколько лет. Мы специально не ориентировались на техническую часть вопроса, сколько максимально сущностную (фундаментальную), ведь в ней и скрывается вектор решения.

    habr.com/ru/articles/795365/

    #ии #ai #этика_искусственного_интеллекта #этика_ии #искусственный_интеллект