Binance Square

MrAnderson

Открытая сделка
Трейдер с регулярными сделками
6.1 г
Metaverso, Ingeniería en Inteligencia Artificial, Análisis Criptos, Filosofia Práctica y mucha meditación.✌🤠
19 подписок(и/а)
620 подписчиков(а)
794 понравилось
199 поделились
Все публикации
Портфель
--
Перевод
Un experto en ciberseguridad advierte que la fiebre por ChatGPT es una burbuja insostenible. Mientras líderes del sector defienden el crecimiento sostenido, analistas recuerdan casos históricos de sobrevaloración y sugieren cautela ante la velocidad y volumen de las inversiones actuales El entusiasmo global por la inteligencia artificial y herramientas como ChatGPT ha impulsado inversiones millonarias en el sector tecnológico. Sin embargo, voces críticas advierten que este auge podría estar inflando una burbuja de difícil sostenibilidad. Shlomo Kramer, cofundador de la firma de ciberseguridad Cato Networks, aseguró que la magnitud de las inversiones en IA no se justifica por los resultados actuales y que, antes o después, muchas empresas podrían enfrentar graves consecuencias si la realidad no cumple con las expectativas generadas. El crecimiento de la inteligencia artificial ha sido tan veloz que muchas compañías han apostado su futuro a la automatización y el procesamiento de datos a gran escala. ChatGPT y otros modelos generativos han impulsado la percepción de que la IA será el motor dominante de la economía y la innovación en los próximos años. Pero, según Kramer, existe una desconexión entre la promesa y los beneficios reales obtenidos hasta ahora. Porqué expertos advierten una burbuja de la IA Kramer no dudó en calificar el fenómeno como una “burbuja de manual”. En declaraciones a Business Insider, señaló que las inversiones en inteligencia artificial están sobrevaloradas y que la tecnología no avanza en la misma proporción que el capital destinado a su desarrollo.
Un experto en ciberseguridad advierte que la fiebre por ChatGPT es una burbuja insostenible.

Mientras líderes del sector defienden el crecimiento sostenido, analistas recuerdan casos históricos de sobrevaloración y sugieren cautela ante la velocidad y volumen de las inversiones actuales

El entusiasmo global por la inteligencia artificial y herramientas como ChatGPT ha impulsado inversiones millonarias en el sector tecnológico.

Sin embargo, voces críticas advierten que este auge podría estar inflando una burbuja de difícil sostenibilidad.

Shlomo Kramer, cofundador de la firma de ciberseguridad Cato Networks, aseguró que la magnitud de las inversiones en IA no se justifica por los resultados actuales y que, antes o después, muchas empresas podrían enfrentar graves consecuencias si la realidad no cumple con las expectativas generadas.

El crecimiento de la inteligencia artificial ha sido tan veloz que muchas compañías han apostado su futuro a la automatización y el procesamiento de datos a gran escala.

ChatGPT y otros modelos generativos han impulsado la percepción de que la IA será el motor dominante de la economía y la innovación en los próximos años.

Pero, según Kramer, existe una desconexión entre la promesa y los beneficios reales obtenidos hasta ahora.

Porqué expertos advierten una burbuja de la IA

Kramer no dudó en calificar el fenómeno como una “burbuja de manual”.

En declaraciones a Business Insider, señaló que las inversiones en inteligencia artificial están sobrevaloradas y que la tecnología no avanza en la misma proporción que el capital destinado a su desarrollo.
См. оригинал
OpenAI предлагает 550 тысяч долларов США в качестве зарплаты для найма эксперта, который подготовит их к угрозам ИИ Американская компания усиливает разработку современных механизмов для обеспечения защиты и доверия пользователей в цифровой экосистеме OpenAI опубликовала вакансию на высокую должность, направленную на предвидение и смягчение опасностей искусственного интеллекта, с годовой зарплатой 555.000 долларов США плюс акции. Вакансия направлена на привлечение начальника по подготовке, который сыграет ключевую роль в выявлении и реагировании на риски, связанные с психическим здоровьем пользователей и кибербезопасностью, что отражает увеличение проблем, связанных с массовым развертыванием моделей ИИ. Должность требует принятия критически важных решений с момента назначения. В публикации в X Сэм Альтман, генеральный директор OpenAI, подчеркнул уровень требований к должности: “Это будет работа с высоким уровнем стресса, с критическими обязанностями с самого начала”. Запрашиваемый профиль должен предоставлять эффективные подходы для разработки решений, которые позволят защитникам кибербезопасности использовать современные возможности, в то время как их неправомерное использование будет блокироваться злонамеренными актерами. Также поднимается вопрос о необходимости обеспечения безопасных стратегий для освобождения биологических возможностей и поддержания целостности систем с возможностью самоулучшения. Это решение продиктовано растущей озабоченностью в технологической индустрии по поводу репутационных и операционных рисков, связанных с развитием искусственного интеллекта. Отчет, опубликованный в ноябре консалтинговой компании по финансовому анализу, отметил, что за первые одиннадцать месяцев прошлого года как минимум 418 компаний с капитализацией более 1.000.000.000 долларов США упомянули риски, связанные с ИИ, в своих отчетах перед Комиссией по ценным бумагам и биржам США.
OpenAI предлагает 550 тысяч долларов США в качестве зарплаты для найма эксперта, который подготовит их к угрозам ИИ

Американская компания усиливает разработку современных механизмов для обеспечения защиты и доверия пользователей в цифровой экосистеме

OpenAI опубликовала вакансию на высокую должность, направленную на предвидение и смягчение опасностей искусственного интеллекта, с годовой зарплатой 555.000 долларов США плюс акции.

Вакансия направлена на привлечение начальника по подготовке, который сыграет ключевую роль в выявлении и реагировании на риски, связанные с психическим здоровьем пользователей и кибербезопасностью, что отражает увеличение проблем, связанных с массовым развертыванием моделей ИИ.

Должность требует принятия критически важных решений с момента назначения. В публикации в X Сэм Альтман, генеральный директор OpenAI, подчеркнул уровень требований к должности: “Это будет работа с высоким уровнем стресса, с критическими обязанностями с самого начала”.

Запрашиваемый профиль должен предоставлять эффективные подходы для разработки решений, которые позволят защитникам кибербезопасности использовать современные возможности, в то время как их неправомерное использование будет блокироваться злонамеренными актерами. Также поднимается вопрос о необходимости обеспечения безопасных стратегий для освобождения биологических возможностей и поддержания целостности систем с возможностью самоулучшения.

Это решение продиктовано растущей озабоченностью в технологической индустрии по поводу репутационных и операционных рисков, связанных с развитием искусственного интеллекта.

Отчет, опубликованный в ноябре консалтинговой компании по финансовому анализу, отметил, что за первые одиннадцать месяцев прошлого года как минимум 418 компаний с капитализацией более 1.000.000.000 долларов США упомянули риски, связанные с ИИ, в своих отчетах перед Комиссией по ценным бумагам и биржам США.
См. оригинал
Искусственный интеллект приносит больше напряжения: сотрудники хотят работать меньше, потому что ИИ помогает. Генеральные директора требуют, чтобы люди работали без отдыха. Под предлогом продуктивности генеральные директора все больше требуют дополнительных часов. Тем временем, люди ожидают, что ИИ снизит количество часов, которые они тратят на свои задачи. Баланс между рабочей и личной жизнью против 996-часовых рабочих дней, которые требуют многие компании ИИ как в США, так и в Европе. Существует значительное расхождение между тем, что сотрудники начали ценить с течением времени, и тем, что руководители требуют от своих работников под угрозой того, что искусственный интеллект может лишить их работы. И новые данные ставят эту реальность на повестку дня. Согласно Randstad, 74% поколения Z считает, что баланс между рабочей и личной жизнью является одним из основных факторов при выборе работы в 2025 году, что является самым высоким показателем среди всех поколений. Согласно Fortune, за 20 лет, что они составляют свой отчет Workmonitor, это первый случай, когда баланс между рабочей и личной жизнью превышает зарплату как главный фактор для всех работников. В Genbeta мы уже собрали другие отчеты, которые показывают аналогичные тенденции. Консалтинговая компания Deloitte утверждала в своем отчете 2023 года, что молодежь "имеет совершенно уникальную перспективу на профессиональные карьеры и на то, как определить успех в жизни и на рабочем месте" по сравнению с более старшими." И в отчете утверждалось, что "их приоритеты - найти баланс между рабочей и личной жизнью, но также чтобы их работа имела смысл и возможность учиться и приобретать новые навыки". Амбиции работников... и ИИ Но... все это сталкивается с другой реальностью. С увеличением влияния ИИ на корпоративные структуры многие руководители утверждают, что работают усерднее, чем когда-либо, и ожидают, что все остальные последуют их примеру.
Искусственный интеллект приносит больше напряжения: сотрудники хотят работать меньше, потому что ИИ помогает. Генеральные директора требуют, чтобы люди работали без отдыха.

Под предлогом продуктивности генеральные директора все больше требуют дополнительных часов. Тем временем, люди ожидают, что ИИ снизит количество часов, которые они тратят на свои задачи.

Баланс между рабочей и личной жизнью против 996-часовых рабочих дней, которые требуют многие компании ИИ как в США, так и в Европе.

Существует значительное расхождение между тем, что сотрудники начали ценить с течением времени, и тем, что руководители требуют от своих работников под угрозой того, что искусственный интеллект может лишить их работы.

И новые данные ставят эту реальность на повестку дня. Согласно Randstad, 74% поколения Z считает, что баланс между рабочей и личной жизнью является одним из основных факторов при выборе работы в 2025 году, что является самым высоким показателем среди всех поколений.

Согласно Fortune, за 20 лет, что они составляют свой отчет Workmonitor, это первый случай, когда баланс между рабочей и личной жизнью превышает зарплату как главный фактор для всех работников.

В Genbeta мы уже собрали другие отчеты, которые показывают аналогичные тенденции.

Консалтинговая компания Deloitte утверждала в своем отчете 2023 года, что молодежь "имеет совершенно уникальную перспективу на профессиональные карьеры и на то, как определить успех в жизни и на рабочем месте" по сравнению с более старшими."

И в отчете утверждалось, что "их приоритеты - найти баланс между рабочей и личной жизнью, но также чтобы их работа имела смысл и возможность учиться и приобретать новые навыки".

Амбиции работников... и ИИ
Но... все это сталкивается с другой реальностью.

С увеличением влияния ИИ на корпоративные структуры многие руководители утверждают, что работают усерднее, чем когда-либо, и ожидают, что все остальные последуют их примеру.
См. оригинал
Сэм Альтман (40), создатель ChatGPT, эксперт в области искусственного интеллекта: “Будут действительно пугающие моменты. Надеюсь, что произойдут некоторые плохие вещи из-за технологии” Генеральный директор OpenAI обычно проявляет оптимизм в отношении искусственного интеллекта, хотя осознает риски, связанные с разработкой технологий. Говорить о Сэме Альтмане, генеральном директоре OpenAI, значит говорить, вероятно, о технологическом гуру данного момента. Говорят, что тот, кто бьет первым, бьет дважды, и это же можно применить в этом случае, так как с запуском ChatGPT 30 ноября 2022 года эксперт опередил всех и стал без намерения эталоном. Создание Альтмана проложило путь для остальных, и если говорить о чат-ботах или больших языковых моделях (LLM, по их английским инициалам), то его гегемония неоспорима. Это не означает, что он строго лучший или что в настоящее время нет хороших альтернатив, но ему удалось занять место в коллективной памяти как пионеру, и это огромный конкурентное преимущество. И этот факт, в свою очередь, также возвысил его главного вдохновителя. Сэм Альтман не имеет резюме таких великих, как Джеффри Хинтон, Ян ЛеКун, Ёшуа Бенжио, Стюарт Рассел или Рэй Курцвейл, чтобы упомянуть некоторых, но его мнение, тем не менее, часто является одним из самых влиятельных и тем, что глубже всего проникает в общественное мнение, потому что он — дружелюбное лицо искусственного интеллекта. Худшие страхи Сэма Альтмана Когда он появляется в подкасте или на телевизионной программе в последнее время, это становится все более частой постоянной, он обычно демонстрирует относительно слепую уверенность в развитии технологии и в ее огромных возможностях. Он проявляет огромный энтузиазм по поводу будущего, которое нас ждет. И это нормально, потому что в конце концов ему также нужно продавать достоинства своего продукта, но если мы читаем между строк, то также есть место для человека, мучимого сомнениями, который включил переключатель, который мы не знаем, сможем ли мы выключить, когда придет время.
Сэм Альтман (40), создатель ChatGPT, эксперт в области искусственного интеллекта: “Будут действительно пугающие моменты.

Надеюсь, что произойдут некоторые плохие вещи из-за технологии”

Генеральный директор OpenAI обычно проявляет оптимизм в отношении искусственного интеллекта, хотя осознает риски, связанные с разработкой технологий.

Говорить о Сэме Альтмане, генеральном директоре OpenAI, значит говорить, вероятно, о технологическом гуру данного момента.

Говорят, что тот, кто бьет первым, бьет дважды, и это же можно применить в этом случае, так как с запуском ChatGPT 30 ноября 2022 года эксперт опередил всех и стал без намерения эталоном.

Создание Альтмана проложило путь для остальных, и если говорить о чат-ботах или больших языковых моделях (LLM, по их английским инициалам), то его гегемония неоспорима.

Это не означает, что он строго лучший или что в настоящее время нет хороших альтернатив, но ему удалось занять место в коллективной памяти как пионеру, и это огромный конкурентное преимущество.

И этот факт, в свою очередь, также возвысил его главного вдохновителя.

Сэм Альтман не имеет резюме таких великих, как Джеффри Хинтон, Ян ЛеКун, Ёшуа Бенжио, Стюарт Рассел или Рэй Курцвейл, чтобы упомянуть некоторых, но его мнение, тем не менее, часто является одним из самых влиятельных и тем, что глубже всего проникает в общественное мнение, потому что он — дружелюбное лицо искусственного интеллекта.

Худшие страхи Сэма Альтмана
Когда он появляется в подкасте или на телевизионной программе в последнее время, это становится все более частой постоянной, он обычно демонстрирует относительно слепую уверенность в развитии технологии и в ее огромных возможностях. Он проявляет огромный энтузиазм по поводу будущего, которое нас ждет.

И это нормально, потому что в конце концов ему также нужно продавать достоинства своего продукта, но если мы читаем между строк, то также есть место для человека, мучимого сомнениями, который включил переключатель, который мы не знаем, сможем ли мы выключить, когда придет время.
См. оригинал
Ты потерял свою инвестицию, друг. Не теряй 25$ . Это способ мошенничества, где у тебя просят деньги, чтобы ты мог получить те завышенные прибыли, которые тебе предложили.
Ты потерял свою инвестицию, друг. Не теряй 25$ . Это способ мошенничества, где у тебя просят деньги, чтобы ты мог получить те завышенные прибыли, которые тебе предложили.
Цитируемый контент удален
См. оригинал
Сэм Альтман, создатель ChatGPT и генеральный директор OpenAI: “Искусственный интеллект представляет собой радикальное изменение в спектре возможностей” Эксперт в области технологий объявил о новом прорыве, который включает ИИ и может революционизировать наш способ работы и жизни. Искусственный интеллект в повседневной жизни уже не является такой далекой реальностью. Уже есть те, кто обращается к ChatGPT или использует подобные виртуальные помощники для планирования проектов и организации задач. Это правая рука многих, и, хотя у него есть ограничения, он становится все более продвинутым. Эксперты в этой области работают над увеличением его возможностей и предложением продукта, который улучшит нашу жизнь. Сэм Альтман, создатель ChatGPT и генеральный директор OpenAI, объявил, какой будет его следующий релиз. Возможно, искусственный интеллект находится на своем пике, но мы не можем знать это с уверенностью, потому что технологии развиваются с большой скоростью. Некоторые эксперты прогнозируют, что через 10 лет ИИ революционизирует рабочий сектор, как мы его знаем. Другие считают, что он сыграет гораздо более важную роль, способную заменить сотни человеческих задач. Пока не наступил этот сценарий, эксперты работают над новыми устройствами.
Сэм Альтман, создатель ChatGPT и генеральный директор OpenAI: “Искусственный интеллект представляет собой радикальное изменение в спектре возможностей”

Эксперт в области технологий объявил о новом прорыве, который включает ИИ и может революционизировать наш способ работы и жизни. Искусственный интеллект в повседневной жизни уже не является такой далекой реальностью.

Уже есть те, кто обращается к ChatGPT или использует подобные виртуальные помощники для планирования проектов и организации задач.

Это правая рука многих, и, хотя у него есть ограничения, он становится все более продвинутым.

Эксперты в этой области работают над увеличением его возможностей и предложением продукта, который улучшит нашу жизнь. Сэм Альтман, создатель ChatGPT и генеральный директор OpenAI, объявил, какой будет его следующий релиз.

Возможно, искусственный интеллект находится на своем пике, но мы не можем знать это с уверенностью, потому что технологии развиваются с большой скоростью.

Некоторые эксперты прогнозируют, что через 10 лет ИИ революционизирует рабочий сектор, как мы его знаем.

Другие считают, что он сыграет гораздо более важную роль, способную заменить сотни человеческих задач.

Пока не наступил этот сценарий, эксперты работают над новыми устройствами.
--
Падение
См. оригинал
Уолл-стрит выводит 900 миллионов долларов в биткойнах, ускоряя обвал ETF на биткойны с наличными показали вторую по величине ежедневную выплату капитала в своей истории. Биржевые инвестиционные фонды (ETF) на биткойны (BTC) с наличными, работающие на Уолл-стрит, зарегистрировали вывод капитала в размере 900 миллионов долларов за вчерашний день, 20 ноября. Этот массовый исход инвесторов стал второй по величине ежедневной выплатой капитала с момента запуска этих инвестиционных продуктов в январе 2024 года, оказав значительное давление на биткойн. Исход капитала возглавил фонд iShares Bitcoin Trust (IBIT), управляемый BlackRock, с выкупами, которые достигли 355 миллионов долларов. За ним следовал Grayscale Bitcoin Trust (GBTC), который сообщил о выводах в размере 199 миллионов долларов. Другие фонды, способствовавшие выводу капитала, были управляемы такими компаниями, как Fidelity, VanEck, Bitwise и Ark Invest. На графике ниже показано, как изменялись потоки капитала из или в ETF на BTC. Работа ETF с наличными подразумевает, что управляющие покупают и хранят биткойны, чтобы поддерживать выпущенные акции. Таким образом, когда инвесторы выводят свой капитал, управляющие вынуждены продавать часть своих запасов цифровой валюты, чтобы покрыть такие выкупы. Это увеличение предложения биткойнов на рынке, без достаточного спроса для его поглощения, действует как прямой фактор давления вниз на его цену.
Уолл-стрит выводит 900 миллионов долларов в биткойнах, ускоряя обвал

ETF на биткойны с наличными показали вторую по величине ежедневную выплату капитала в своей истории.

Биржевые инвестиционные фонды (ETF) на биткойны (BTC) с наличными, работающие на Уолл-стрит, зарегистрировали вывод капитала в размере 900 миллионов долларов за вчерашний день, 20 ноября.

Этот массовый исход инвесторов стал второй по величине ежедневной выплатой капитала с момента запуска этих инвестиционных продуктов в январе 2024 года, оказав значительное давление на биткойн.

Исход капитала возглавил фонд iShares Bitcoin Trust (IBIT), управляемый BlackRock, с выкупами, которые достигли 355 миллионов долларов.

За ним следовал Grayscale Bitcoin Trust (GBTC), который сообщил о выводах в размере 199 миллионов долларов.

Другие фонды, способствовавшие выводу капитала, были управляемы такими компаниями, как Fidelity, VanEck, Bitwise и Ark Invest.

На графике ниже показано, как изменялись потоки капитала из или в ETF на BTC.

Работа ETF с наличными подразумевает, что управляющие покупают и хранят биткойны, чтобы поддерживать выпущенные акции.

Таким образом, когда инвесторы выводят свой капитал, управляющие вынуждены продавать часть своих запасов цифровой валюты, чтобы покрыть такие выкупы.

Это увеличение предложения биткойнов на рынке, без достаточного спроса для его поглощения, действует как прямой фактор давления вниз на его цену.
--
Падение
См. оригинал
Сэм Альтман, главный директор ChatGPT, делится своим "лучшим случайным профессиональным советом" Лучшее время для того, чтобы заняться информатикой, это прямо сейчас. По крайней мере, так считает генеральный директор OpenAI и главный директор ChatGPT, Сэм Альтман. "Какой интересный и многообещающий момент", комментировал Альтман в интервью с Дэном Бонехом, профессором Стэнфордского университета (в США), опубликованном в эту среду. "Очевидно, я сосредоточусь на ИИ". Генеральный директор одной из самых передовых компаний в области искусственного интеллекта в настоящее время утверждает, что ИИ не только является самой актуальной профессиональной областью в данный момент, но и технологией, которая будет определять это поколение. "Это может быть самым важным в гораздо более длительный период времени", добавил Альтман. Этот предприниматель открыто выражает свою уверенность в том, что искусственный интеллект преобразит почти все аспекты работы и общества. Генеральный директор OpenAI на прошлой неделе защищал в последнем эпизоде подкаста Conversations with Tyler, что он был бы смущен, если бы его компания не была первой крупной организацией, возглавляемой "Генеральным директором ИИ". Общий искусственный интеллект (AGI, по его английским инициалам), та технология, которая могла бы рассуждать на уровне или выше человеческого, была главной целью разработчика ChatGPT с его первых дней как исследовательской лаборатории. В прямой трансляции, которая состоялась в октябре, Альтман сказал, что цель OpenAI - "иметь настоящего автоматизированного исследователя ИИ к марту 2028 года". Во время своего недавнего интервью с Бонехом предприниматель также поделился тем, что он сам назвал своим "лучшим случайным профессиональным советом".
Сэм Альтман, главный директор ChatGPT, делится своим "лучшим случайным профессиональным советом"

Лучшее время для того, чтобы заняться информатикой, это прямо сейчас.

По крайней мере, так считает генеральный директор OpenAI и главный директор ChatGPT, Сэм Альтман.

"Какой интересный и многообещающий момент", комментировал Альтман в интервью с Дэном Бонехом, профессором Стэнфордского университета (в США), опубликованном в эту среду. "Очевидно, я сосредоточусь на ИИ".

Генеральный директор одной из самых передовых компаний в области искусственного интеллекта в настоящее время утверждает, что ИИ не только является самой актуальной профессиональной областью в данный момент, но и технологией, которая будет определять это поколение.

"Это может быть самым важным в гораздо более длительный период времени", добавил Альтман.

Этот предприниматель открыто выражает свою уверенность в том, что искусственный интеллект преобразит почти все аспекты работы и общества.

Генеральный директор OpenAI на прошлой неделе защищал в последнем эпизоде подкаста Conversations with Tyler, что он был бы смущен, если бы его компания не была первой крупной организацией, возглавляемой "Генеральным директором ИИ".

Общий искусственный интеллект (AGI, по его английским инициалам), та технология, которая могла бы рассуждать на уровне или выше человеческого, была главной целью разработчика ChatGPT с его первых дней как исследовательской лаборатории.

В прямой трансляции, которая состоялась в октябре, Альтман сказал, что цель OpenAI - "иметь настоящего автоматизированного исследователя ИИ к марту 2028 года".

Во время своего недавнего интервью с Бонехом предприниматель также поделился тем, что он сам назвал своим "лучшим случайным профессиональным советом".
См. оригинал
Снижение всего, кроме обмена USDT/VES 😂
Снижение всего, кроме обмена USDT/VES 😂
--
Падение
См. оригинал
$BTC is Крушение 👀
$BTC is Крушение 👀
См. оригинал
Сэм Альтман, генеральный директор OpenAI, был прерван и вызван в суд во время мероприятия. Повестка была представлена от имени Stop AI, коллектива, который проводит протесты против OpenAI и который неоднократно блокировал доступы в штаб-квартиру компании в городе. Сэм Альтман, генеральный директор OpenAI и одна из самых влиятельных фигур в развитии искусственного интеллекта, был удивлён в понедельник, когда мужчина вышел на сцену во время публичного мероприятия и вручил ему судебную повестку, что вызвало гул и шепот среди присутствующих. Альтман принимал участие в беседе с тренером Golden State Warriors, Стивом Керром, модератором которой был Мэнни Йекутель. Посреди разговора один человек ворвался на сцену, чтобы вручить ему повестку. Хотя документ не попал непосредственно в руки Альтмана, один из сотрудников безопасности взял его и сопроводил мужчину за пределы мероприятия, уведомление остается действительным согласно законам Калифорнии, даже если вызываемое лицо не получает его физически. Личность мужчины была впоследствии подтверждена: это сотрудник Офиса государственного защитника Сан-Франциско. Повестка была представлена от имени Stop AI, коллектива, который проводит протесты против OpenAI и который неоднократно блокировал доступы в штаб-квартиру компании в городе. Некоторые из его членов были арестованы и ожидают суда. Согласно словам представителя Офиса государственного защитника, Валерии Ибарра, ранее пытались вызвать Альтмана как в штаб-квартире его компании, так и через электронные запросы, но безуспешно. Альтман был вызван в качестве возможного свидетеля в уголовном процессе, в котором активисты обвиняются в препятствовании во время своих протестов. В заявлении, опубликованном в X, группа Stop AI заявила, что её цель — привлечь внимание к тому, что они считают экзистенциальной угрозой: разработке более продвинутых систем искусственного интеллекта, чем человек.
Сэм Альтман, генеральный директор OpenAI, был прерван и вызван в суд во время мероприятия.

Повестка была представлена от имени Stop AI, коллектива, который проводит протесты против OpenAI и который неоднократно блокировал доступы в штаб-квартиру компании в городе.

Сэм Альтман, генеральный директор OpenAI и одна из самых влиятельных фигур в развитии искусственного интеллекта, был удивлён в понедельник, когда мужчина вышел на сцену во время публичного мероприятия и вручил ему судебную повестку, что вызвало гул и шепот среди присутствующих.

Альтман принимал участие в беседе с тренером Golden State Warriors, Стивом Керром, модератором которой был Мэнни Йекутель. Посреди разговора один человек ворвался на сцену, чтобы вручить ему повестку.

Хотя документ не попал непосредственно в руки Альтмана, один из сотрудников безопасности взял его и сопроводил мужчину за пределы мероприятия, уведомление остается действительным согласно законам Калифорнии, даже если вызываемое лицо не получает его физически.

Личность мужчины была впоследствии подтверждена: это сотрудник Офиса государственного защитника Сан-Франциско.

Повестка была представлена от имени Stop AI, коллектива, который проводит протесты против OpenAI и который неоднократно блокировал доступы в штаб-квартиру компании в городе. Некоторые из его членов были арестованы и ожидают суда.

Согласно словам представителя Офиса государственного защитника, Валерии Ибарра, ранее пытались вызвать Альтмана как в штаб-квартире его компании, так и через электронные запросы, но безуспешно.

Альтман был вызван в качестве возможного свидетеля в уголовном процессе, в котором активисты обвиняются в препятствовании во время своих протестов.

В заявлении, опубликованном в X, группа Stop AI заявила, что её цель — привлечь внимание к тому, что они считают экзистенциальной угрозой: разработке более продвинутых систем искусственного интеллекта, чем человек.
См. оригинал
Инвестиции, этот первоначальный взнос, наполненный мечтами и надеждами на разрешенное будущее, где его результат является воплощением достатка и спокойствия. В то время как убытки и низкая рентабельность являются порочным кругом, который превращает инвестиции в маргинальную транзакцию. Необходимо применять соотношение риска и прибыли, чтобы определить, поддерживается ли инвестиция здравым смыслом и разумом для достижения истинного успеха.
Инвестиции, этот первоначальный взнос, наполненный мечтами и надеждами на разрешенное будущее, где его результат является воплощением достатка и спокойствия.

В то время как убытки и низкая рентабельность являются порочным кругом, который превращает инвестиции в маргинальную транзакцию.

Необходимо применять соотношение риска и прибыли, чтобы определить, поддерживается ли инвестиция здравым смыслом и разумом для достижения истинного успеха.
См. оригинал
Сэм Альтман, создатель ChatGPT, эксперт в области искусственного интеллекта: “Я плохо сплю по ночам. Я не спал ни одной ночи с тех пор, как был запущен ChatGPT” Генеральный директор OpenAI утверждает, что ответственность за его работу с ChatGPT и принимаемые им решения является трудной ношей, особенно когда также рассматриваются моральные вопросы. Многое было сказано и написано в последнее время об искусственном интеллекте и его различных влияниях на геополитическую, социальную, медицинскую, экономическую или трудовую сферы. Даже также спекулировали терминами, такими как сингулярность, теоретическая точка, в которой машина превзойдет человека по интеллекту, или трансгуманизм, который фантазирует о том, чтобы улучшить человеческие способности под защитой технологий в стремлении к бессмертию. Тем не менее, не так много говорится о дебатах о морали и о том, какими являются этические принципы, на которых основывается искусственный интеллект, когда кто-то вроде тебя или меня задает ему вопрос. Как должен вести себя языковая модель? Что ей следует делать? Как отказать в чем-то? Как предполагается, что она должна отвечать? Бремя принятия решений, влияющих на миллионы людей Очевидно, никто не знает лучше, чем Сэм Альтман, создатель ChatGPT, как ведет себя его творение и какие ограничения были установлены или с какими вызовами оно сталкивается, а их немало. "Это сложный вопрос, потому что есть много людей с разными жизненными перспективами, но в целом меня удивила общая способность модели учиться и применять моральные рамки", — утверждает он в интервью на шоу Такера Карлсона.
Сэм Альтман, создатель ChatGPT, эксперт в области искусственного интеллекта: “Я плохо сплю по ночам. Я не спал ни одной ночи с тех пор, как был запущен ChatGPT”

Генеральный директор OpenAI утверждает, что ответственность за его работу с ChatGPT и принимаемые им решения является трудной ношей, особенно когда также рассматриваются моральные вопросы.

Многое было сказано и написано в последнее время об искусственном интеллекте и его различных влияниях на геополитическую, социальную, медицинскую, экономическую или трудовую сферы.

Даже также спекулировали терминами, такими как сингулярность, теоретическая точка, в которой машина превзойдет человека по интеллекту, или трансгуманизм, который фантазирует о том, чтобы улучшить человеческие способности под защитой технологий в стремлении к бессмертию.

Тем не менее, не так много говорится о дебатах о морали и о том, какими являются этические принципы, на которых основывается искусственный интеллект, когда кто-то вроде тебя или меня задает ему вопрос.

Как должен вести себя языковая модель? Что ей следует делать? Как отказать в чем-то? Как предполагается, что она должна отвечать?

Бремя принятия решений, влияющих на миллионы людей

Очевидно, никто не знает лучше, чем Сэм Альтман, создатель ChatGPT, как ведет себя его творение и какие ограничения были установлены или с какими вызовами оно сталкивается, а их немало.

"Это сложный вопрос, потому что есть много людей с разными жизненными перспективами, но в целом меня удивила общая способность модели учиться и применять моральные рамки", — утверждает он в интервью на шоу Такера Карлсона.
См. оригинал
Эксперты опровергают Билла Гейтса: искусственный интеллект увеличит рабочую нагрузку, а не уменьшит ее Билл Гейтс видит более короткие рабочие недели благодаря ИИ, но эксперты предупреждают о противоположном сценарии В последние годы несколько влиятельных фигур в мире технологий, таких как Билл Гейтс, Сэм Альтман или Илон Маск, согласились с тем, что искусственный интеллект преобразит способ, которым люди работают. Гейтс, в частности, отметил, что автоматизация позволит сократить рабочие дни и что люди смогут уделять больше времени своим личным или творческим интересам. Тем не менее, растущая группа экспертов не разделяет этот оптимизм. По словам этих специалистов, недавняя история показывает, что внедрение новых технологий не всегда приводит к снижению рабочей нагрузки, а скорее к увеличению рабочей нагрузки и большей сложности в отключении. Вместо того чтобы освободить время, ИИ может повысить ожидания производительности и расширить границы между работой и личной жизнью. Эксперты утверждают, что искусственный интеллект может повторить тот же паттерн, который наблюдался с приходом Интернета, смартфонов или электронной почты: инструменты, созданные для облегчения рабочей жизни, но которые в итоге стали порождать новые обязанности и продлили рабочее время за пределы традиционных границ. Миф о сокращённых рабочих днях Билл Гейтс представил будущее, в котором люди будут работать всего три дня в неделю, полагая, что ИИ возьмет на себя более повторяющиеся или административные задачи. Тем не менее, исследователи, изучающие эволюцию занятости и технологий, утверждают, что этот сценарий маловероятен. Согласно их анализу, внедрение систем автоматизации обычно сопровождается увеличением ожиданий производительности.
Эксперты опровергают Билла Гейтса: искусственный интеллект увеличит рабочую нагрузку, а не уменьшит ее
Билл Гейтс видит более короткие рабочие недели благодаря ИИ, но эксперты предупреждают о противоположном сценарии

В последние годы несколько влиятельных фигур в мире технологий, таких как Билл Гейтс, Сэм Альтман или Илон Маск, согласились с тем, что искусственный интеллект преобразит способ, которым люди работают.

Гейтс, в частности, отметил, что автоматизация позволит сократить рабочие дни и что люди смогут уделять больше времени своим личным или творческим интересам.

Тем не менее, растущая группа экспертов не разделяет этот оптимизм.

По словам этих специалистов, недавняя история показывает, что внедрение новых технологий не всегда приводит к снижению рабочей нагрузки, а скорее к увеличению рабочей нагрузки и большей сложности в отключении.

Вместо того чтобы освободить время, ИИ может повысить ожидания производительности и расширить границы между работой и личной жизнью.

Эксперты утверждают, что искусственный интеллект может повторить тот же паттерн, который наблюдался с приходом Интернета, смартфонов или электронной почты: инструменты, созданные для облегчения рабочей жизни, но которые в итоге стали порождать новые обязанности и продлили рабочее время за пределы традиционных границ.

Миф о сокращённых рабочих днях

Билл Гейтс представил будущее, в котором люди будут работать всего три дня в неделю, полагая, что ИИ возьмет на себя более повторяющиеся или административные задачи.

Тем не менее, исследователи, изучающие эволюцию занятости и технологий, утверждают, что этот сценарий маловероятен.

Согласно их анализу, внедрение систем автоматизации обычно сопровождается увеличением ожиданий производительности.
См. оригинал
Прощай, 'инфлюенсеры': Сэм Альтман, создатель ChatGPT, считает, что они могут исчезнуть, если ИИ будет хорош в создании контента. Неважно, что думают многие: Сэм Альтман, генеральный директор OpenAI, говорит, что считает, что ChatGPT идет к тому, чтобы иметь больше разговоров в день, чем все люди вместе взятые. ChatGPT вышел в ноябре 2022 года и быстро стал самым быстрорастущим технологическим продуктом в истории. Теперь Сэм Альтман полностью поглощен проектом Sora, своим новым приложением для коротких видео с ИИ, которое обещает революционизировать аудиовизуальный мир вселенной 3.0. Это инструмент, который позволяет дать волю вашему воображению, с любым персонажем в самых разных сценариях; но также для влияния на коллектив: создателей контента людей. Инновации приложения примечательны, но также и его бесконечные возможности, которые ставят под угрозу современных инфлюенсеров и ютуберов. Таким образом, сам Альтман дал это понять во время интервью вместе с Биллом Пиблсом, ответственным за проект Sora, заявив, что "людям не важно, создан ли контент человеком или искусственным интеллектом", если он оригинален и качественен. По словам директора OpenAI, то, что зрители действительно ищут, это "хороший, оригинальный, вдумчивый, новый и полезный контент", независимо от его происхождения. В своем выступлении в цифровой программе TBPN Альтман объяснил, что будущее визуальной коммуникации пройдет через сотрудничество между людьми и технологиями, неизбежно. $BTC
Прощай, 'инфлюенсеры': Сэм Альтман, создатель ChatGPT, считает, что они могут исчезнуть, если ИИ будет хорош в создании контента.

Неважно, что думают многие: Сэм Альтман, генеральный директор OpenAI, говорит, что считает, что ChatGPT идет к тому, чтобы иметь больше разговоров в день, чем все люди вместе взятые.

ChatGPT вышел в ноябре 2022 года и быстро стал самым быстрорастущим технологическим продуктом в истории.

Теперь Сэм Альтман полностью поглощен проектом Sora, своим новым приложением для коротких видео с ИИ, которое обещает революционизировать аудиовизуальный мир вселенной 3.0.

Это инструмент, который позволяет дать волю вашему воображению, с любым персонажем в самых разных сценариях; но также для влияния на коллектив: создателей контента людей.

Инновации приложения примечательны, но также и его бесконечные возможности, которые ставят под угрозу современных инфлюенсеров и ютуберов.

Таким образом, сам Альтман дал это понять во время интервью вместе с Биллом Пиблсом, ответственным за проект Sora, заявив, что "людям не важно, создан ли контент человеком или искусственным интеллектом", если он оригинален и качественен.

По словам директора OpenAI, то, что зрители действительно ищут, это "хороший, оригинальный, вдумчивый, новый и полезный контент", независимо от его происхождения.

В своем выступлении в цифровой программе TBPN Альтман объяснил, что будущее визуальной коммуникации пройдет через сотрудничество между людьми и технологиями, неизбежно.
$BTC
См. оригинал
Информация, этот свет, без которого мудрость не может видеть, но также и тень, которая, в своем избытке, слепит нас и мешает найти истинное знание. Она представляется как необходимое условие для достижения мудрости, как свет для зрения; так же как густая тень, избыток данных без контекста или значения может быть вредным, подавляя нас и затрудняя глубокое понимание. Отражает идею о том, что наличие большого количества данных не равняется пониманию, и тем более мудрости; задача состоит в том, чтобы различать и организовывать информацию, чтобы она стала значимым знанием.
Информация, этот свет, без которого мудрость не может видеть, но также и тень, которая, в своем избытке, слепит нас и мешает найти истинное знание.

Она представляется как необходимое условие для достижения мудрости, как свет для зрения; так же как густая тень, избыток данных без контекста или значения может быть вредным, подавляя нас и затрудняя глубокое понимание.

Отражает идею о том, что наличие большого количества данных не равняется пониманию, и тем более мудрости; задача состоит в том, чтобы различать и организовывать информацию, чтобы она стала значимым знанием.
См. оригинал
Возможно, у нас есть пузырь ИИ, но это "хороший пузырь", утверждают инвесторы и, конечно, основатели стартапов Логика подсказывает, что компании, которые постоянно теряют деньги, должны иметь черное будущее. То, что происходит в мире ИИ, является противоположностью, и сейчас десять стартапов с очень красными цифрами достигли за год чего-то необычного: за год они выросли на триллион долларов в своей совместной оценке. Это просто необычайно... и тревожно. Три крупных игрока. OpenAI, безусловно, является главной фигурой этой избирательной группы, и в настоящее время ее оценка составляет около полутриллиона долларов. Компания Илона Маска, xAI, оценивается в 200.000.000.000 долларов, в то время как Anthropic также приближается к этой цифре, согласно исследованию Financial Times. И их ближайшие последователи. Databricks, основанная в 2013 году, быстро присоединилась к этому сегменту и сейчас имеет оценку в 100.000.000.000 долларов. Figure (робототехника), SSI (стартап Сутскевера), Scale AI, Perplexity, Thinking Machine Lab (стартап Мира Мурати) или Cursor дополняют этот набор новых стартапов (почти все) и с резко возросшими оценками. Инвестиционная лихорадка. Этот рост в их оценке обусловлен тем, что все эти фирмы привлекли многомиллионные инвестиционные раунды от компаний, которые верят в будущее, полное ИИ. На самом деле, венчурные и инвестиционные компании в США вложили 161.000.000.000 долларов в течение этого года, и сделали это, не имея даже намека на то, что их ставка будет выигрышной. Все эти компании ИИ сжигают деньги, как будто завтра не наступит, и их рентабельность и будущее остаются абсолютной загадкой. Пузыри хороши. "Конечно, существует пузырь [ИИ]". Это говорит Херман Таджеджа, президент венчурной компании General Catalyst.
Возможно, у нас есть пузырь ИИ, но это "хороший пузырь", утверждают инвесторы и, конечно, основатели стартапов

Логика подсказывает, что компании, которые постоянно теряют деньги, должны иметь черное будущее.

То, что происходит в мире ИИ, является противоположностью, и сейчас десять стартапов с очень красными цифрами достигли за год чего-то необычного: за год они выросли на триллион долларов в своей совместной оценке. Это просто необычайно... и тревожно.

Три крупных игрока. OpenAI, безусловно, является главной фигурой этой избирательной группы, и в настоящее время ее оценка составляет около полутриллиона долларов.

Компания Илона Маска, xAI, оценивается в 200.000.000.000 долларов, в то время как Anthropic также приближается к этой цифре, согласно исследованию Financial Times.

И их ближайшие последователи. Databricks, основанная в 2013 году, быстро присоединилась к этому сегменту и сейчас имеет оценку в 100.000.000.000 долларов. Figure (робототехника), SSI (стартап Сутскевера), Scale AI, Perplexity, Thinking Machine Lab (стартап Мира Мурати) или Cursor дополняют этот набор новых стартапов (почти все) и с резко возросшими оценками.

Инвестиционная лихорадка.

Этот рост в их оценке обусловлен тем, что все эти фирмы привлекли многомиллионные инвестиционные раунды от компаний, которые верят в будущее, полное ИИ.

На самом деле, венчурные и инвестиционные компании в США вложили 161.000.000.000 долларов в течение этого года, и сделали это, не имея даже намека на то, что их ставка будет выигрышной.

Все эти компании ИИ сжигают деньги, как будто завтра не наступит, и их рентабельность и будущее остаются абсолютной загадкой.

Пузыри хороши. "Конечно, существует пузырь [ИИ]". Это говорит Херман Таджеджа, президент венчурной компании General Catalyst.
См. оригинал
Новые соглашения по чипам OpenAI ставят трудный вопрос: откуда придет вся энергия? Производитель ChatGPT подписал многомиллиардное соглашение о сотрудничестве с AMD для внедрения 6 гигаватт чипов искусственного интеллекта компании полупроводников. На прошлой неделе OpenAI и дизайнер чипов Nvidia объявили о соглашении на 10 гигаватт вычислительной мощности. OpenAI заявила, что ей срочно необходимо получить доступ к большему вычислительному потенциалу для реализации своей амбициозной стратегии роста, но ее недавние соглашения по чипам породили другую важную потребность: больше энергии. В Соединенных Штатах гонка за ИИ натянула электрическую сеть почти до предела. Энергетические компании сообщают, что потребуется около 60 гигаватт новой энергии, что эквивалентно потреблению шести крупных городов, к концу десятилетия. Электрические компании могут потратить годы на планирование и проведение необходимых регуляторных слушаний для запуска новой инфраструктуры. С быстрым темпом объявлений о новых чипах эксперты утверждают, что все более необходимо, чтобы центры данных отказались от услуг энергетических компаний и начали обеспечивать свою собственную энергию. "Сектор в целом знает уже много лет, что мы приближаемся к пределу мощности сети", отмечает Шон Фарни, вице-президент по стратегии центров данных для Америки компании Jones Lang Lasalle. "Чтобы выиграть в этой игре, они должны быть инновационными и запускать эти решения по самогенерации". OpenAI уже обеспечивает энергией свой центр данных в Абилине (Техас), который является частью проекта Stargate, через газовую электростанцию, расположенную на территории. Элон Маск обеспечивает энергией центр данных xAI в Мемфисе с помощью мобильных газовых турбин и купил здания старой газовой электростанции в Миссисипи.
Новые соглашения по чипам OpenAI ставят трудный вопрос: откуда придет вся энергия?

Производитель ChatGPT подписал многомиллиардное соглашение о сотрудничестве с AMD для внедрения 6 гигаватт чипов искусственного интеллекта компании полупроводников.

На прошлой неделе OpenAI и дизайнер чипов Nvidia объявили о соглашении на 10 гигаватт вычислительной мощности.

OpenAI заявила, что ей срочно необходимо получить доступ к большему вычислительному потенциалу для реализации своей амбициозной стратегии роста, но ее недавние соглашения по чипам породили другую важную потребность: больше энергии.

В Соединенных Штатах гонка за ИИ натянула электрическую сеть почти до предела.

Энергетические компании сообщают, что потребуется около 60 гигаватт новой энергии, что эквивалентно потреблению шести крупных городов, к концу десятилетия.

Электрические компании могут потратить годы на планирование и проведение необходимых регуляторных слушаний для запуска новой инфраструктуры.

С быстрым темпом объявлений о новых чипах эксперты утверждают, что все более необходимо, чтобы центры данных отказались от услуг энергетических компаний и начали обеспечивать свою собственную энергию.

"Сектор в целом знает уже много лет, что мы приближаемся к пределу мощности сети", отмечает Шон Фарни, вице-президент по стратегии центров данных для Америки компании Jones Lang Lasalle.

"Чтобы выиграть в этой игре, они должны быть инновационными и запускать эти решения по самогенерации".

OpenAI уже обеспечивает энергией свой центр данных в Абилине (Техас), который является частью проекта Stargate, через газовую электростанцию, расположенную на территории.

Элон Маск обеспечивает энергией центр данных xAI в Мемфисе с помощью мобильных газовых турбин и купил здания старой газовой электростанции в Миссисипи.
См. оригинал
Сэм Альтман (40), создатель ChatGPT, о будущем искусственного интеллекта: "Образование наших детей будет совершенно другим, университет не станет вариантом для многих" В последнее время очевидно, что искусственный интеллект стал предметом постоянных дебатов. Беспокойство о том, как это повлияет на нашу жизнь, теперь, когда он начинает быть реальной ‘угрозой’, заставляет всех пытаться предвидеть его возможные последствия и спекулировать о том, как эта технология будет формировать нашу среду в ближайшие годы. Его внедрение, этическое управление данными и конфиденциальность, прозрачность и алгоритмическая предвзятость, кибербезопасность, влияние на рынок труда, необходимость квалифицированных кадров, законодательство, нехватка инфраструктуры или сам контроль человека над возможностями искусственного интеллекта являются вопросами, которые вызывают серьезную озабоченность. Образование в эпоху искусственного интеллекта Тем не менее, несмотря на важность всех этих тем, не менее верно, что мы также должны беспокоиться о тех, кто унаследует эту технологию в ее наивысшем расцвете. Что будет с новыми поколениями? Готовы ли дети оседлать ИИ? Как это повлияет на них? "Меня не беспокоят дети, меня беспокоят родители". Так однозначно и искренне говорит Сэм Альтман, создатель ChatGPT и генеральный директор OpenAI, в подкасте This past weekend, который ведет Тео Вон. "Если посмотреть на историю мира, когда возникает новая технология, люди, которые растут с ней, всегда знают, что делать и как адаптироваться. Но если вам 50 лет, учиться делать вещи совершенно иначе, чем вы привыкли, не всегда работает". И, как пример, он делится двумя показательными примерами, которые подчеркивают важность быть цифровым нативом для того, чтобы справляться с технологическими изменениями. "Наше поколение не выросло без компьютеров. Возможно, в какой-то момент для нас они были чем-то новым, но они всегда были там"
Сэм Альтман (40), создатель ChatGPT, о будущем искусственного интеллекта: "Образование наших детей будет совершенно другим, университет не станет вариантом для многих"

В последнее время очевидно, что искусственный интеллект стал предметом постоянных дебатов.

Беспокойство о том, как это повлияет на нашу жизнь, теперь, когда он начинает быть реальной ‘угрозой’, заставляет всех пытаться предвидеть его возможные последствия и спекулировать о том, как эта технология будет формировать нашу среду в ближайшие годы.

Его внедрение, этическое управление данными и конфиденциальность, прозрачность и алгоритмическая предвзятость, кибербезопасность, влияние на рынок труда, необходимость квалифицированных кадров, законодательство, нехватка инфраструктуры или сам контроль человека над возможностями искусственного интеллекта являются вопросами, которые вызывают серьезную озабоченность.

Образование в эпоху искусственного интеллекта

Тем не менее, несмотря на важность всех этих тем, не менее верно, что мы также должны беспокоиться о тех, кто унаследует эту технологию в ее наивысшем расцвете.

Что будет с новыми поколениями? Готовы ли дети оседлать ИИ? Как это повлияет на них?

"Меня не беспокоят дети, меня беспокоят родители". Так однозначно и искренне говорит Сэм Альтман, создатель ChatGPT и генеральный директор OpenAI, в подкасте This past weekend, который ведет Тео Вон.

"Если посмотреть на историю мира, когда возникает новая технология, люди, которые растут с ней, всегда знают, что делать и как адаптироваться.

Но если вам 50 лет, учиться делать вещи совершенно иначе, чем вы привыкли, не всегда работает".

И, как пример, он делится двумя показательными примерами, которые подчеркивают важность быть цифровым нативом для того, чтобы справляться с технологическими изменениями.

"Наше поколение не выросло без компьютеров. Возможно, в какой-то момент для нас они были чем-то новым, но они всегда были там"
См. оригинал
Сэм Альтман, генеральный директор ChatGPT, подтверждает то, чего все боятся с Sora 2: 'Мы будем пересматривать права создателей интеллектуальной собственности' До сих пор модель генерации видео OpenAI работала по политике добровольного исключения, система, которая отличалась от правовой базы авторских прав. С первых неудач генераторов видео с ИИ беспокойство по поводу авторских прав не заставило себя ждать. Идея возможности поместить Пикачу или Дарт Вейдера в любую сцену всего лишь с помощью промпта создавала немедленный правовой риск для создателей модели. Сегодня, с более сложными инструментами, такими как Sora 2, дилемма сохраняется: персонажи, которые не принадлежат OpenAI, по-прежнему свободно изображаются в соответствии с указанием пользователя. На прошлой неделе Сэм Альтман, генеральный директор OpenAI, представил подход добровольного исключения в Sora 2. Это позволяет правообладателям решать, может ли их контент использоваться в генерации видео. Как предупреждал The Hollywood Reporter, это не является обычной динамикой закона об интеллектуальной собственности. До сих пор Sora 2 защищала западную интеллектуальную собственность, но не японскую: такие франшизы, как Pokémon или Dragon Ball, были свободной территорией. С обновлением Альтман подтвердил в блоге, что эта политика меняется на опционную систему, предоставляя создателям "более детальный контроль" над их персонажами. "Мы получили отзывы от многочисленных правообладателей, очень заинтересованных в этом новом типе 'интерактивной фанатской фикции'. Им нравится идея участия, которая создает ценность, но они хотят иметь возможность решать, как используются их персонажи, даже полностью запрещая их использование", - написал Альтман. За этими изменениями также стоит экономический вопрос: генерация видео с помощью Sora 2 потребляет много энергии, что всегда было в центре обсуждения искусственного интеллекта, и намерение состоит в том, чтобы делиться доходами с правообладателями, которые это разрешают, создавая модель, которая, по словам Альтмана, приносит пользу всем сторонам.
Сэм Альтман, генеральный директор ChatGPT, подтверждает то, чего все боятся с Sora 2: 'Мы будем пересматривать права создателей интеллектуальной собственности'

До сих пор модель генерации видео OpenAI работала по политике добровольного исключения, система, которая отличалась от правовой базы авторских прав.

С первых неудач генераторов видео с ИИ беспокойство по поводу авторских прав не заставило себя ждать.

Идея возможности поместить Пикачу или Дарт Вейдера в любую сцену всего лишь с помощью промпта создавала немедленный правовой риск для создателей модели.

Сегодня, с более сложными инструментами, такими как Sora 2, дилемма сохраняется: персонажи, которые не принадлежат OpenAI, по-прежнему свободно изображаются в соответствии с указанием пользователя.

На прошлой неделе Сэм Альтман, генеральный директор OpenAI, представил подход добровольного исключения в Sora 2.

Это позволяет правообладателям решать, может ли их контент использоваться в генерации видео. Как предупреждал The Hollywood Reporter, это не является обычной динамикой закона об интеллектуальной собственности.

До сих пор Sora 2 защищала западную интеллектуальную собственность, но не японскую: такие франшизы, как Pokémon или Dragon Ball, были свободной территорией.

С обновлением Альтман подтвердил в блоге, что эта политика меняется на опционную систему, предоставляя создателям "более детальный контроль" над их персонажами.

"Мы получили отзывы от многочисленных правообладателей, очень заинтересованных в этом новом типе 'интерактивной фанатской фикции'.

Им нравится идея участия, которая создает ценность, но они хотят иметь возможность решать, как используются их персонажи, даже полностью запрещая их использование", - написал Альтман.

За этими изменениями также стоит экономический вопрос: генерация видео с помощью Sora 2 потребляет много энергии, что всегда было в центре обсуждения искусственного интеллекта, и намерение состоит в том, чтобы делиться доходами с правообладателями, которые это разрешают, создавая модель, которая, по словам Альтмана, приносит пользу всем сторонам.
Войдите, чтобы посмотреть больше материала
Последние новости криптовалют
⚡️ Участвуйте в последних обсуждениях в криптомире
💬 Общайтесь с любимыми авторами
👍 Изучайте темы, которые вам интересны
Эл. почта/номер телефона

Последние новости

--
Подробнее

Популярные статьи

Чен Ли
Подробнее
Структура веб-страницы
Настройки cookie
Правила и условия платформы