#gpt-5-2 — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #gpt-5-2, aggregated by home.social.
-
GPT 5.4 vs GPT 5.2: what really changed?
In this review I cover: native computer use, 1M-token context window, tool search, pricing, and why GPT 5.4 crushes pro benchmarks while GPT 5.2 still works fine for casual use.
Full article ➜ https://techglimmer.io/gpt-5-4-vs-gpt-5-2-gpt-5-4-review/
-
OpenAI’s GPT-5.4 is here, and this time it actually looks like a real upgrade
https://web.brid.gy/r/https://nerds.xyz/2026/03/openai-gpt-5-4-release/
-
Как читать новости об ИИ и отличать прорыв от пресс-релиза. И как относиться к заголовкам про «ИИ отнимет работу»
Новости об ИИ выходят быстрее, чем успеваешь их переварить: релизы моделей, таблицы бенчмарков, заявления про "революцию" и "конец профессий". Эта статья научит,что проверять, когда выходит новая модель, как читать бенчмарки, на что смотреть в model/system card , чтобы понимать реальный смысл анонса, чем open-weight отличается от закрытых моделей и почему это влияет на рынок. А заодно, как читать без паники и самообмана статьи вроде "ИИ отнимет у вас работу".
https://habr.com/ru/articles/1003130/
#нейросети #искусственный_интеллект #LLM #бенчмарки #Claude_Sonnet_46 #Gemini_31_Pro #GPT52 #SWEbench #ARCAGI2 #сравнение_моделей_ИИ
-
GPT-5.2가 이론물리학 난제 풀었다, 15년 미해결 글루온 상호작용 발견
GPT-5.2가 15년간 미해결로 남았던 글루온 입자 상호작용 문제를 해결하고 수학적 증명까지 완성했습니다. AI 보조 과학 연구의 새로운 전환점을 소개합니다. -
GPT-5.2 proved gluon interactions physicists presumed to vanish actually exist in special conditions. OpenAI AI spent 12 hours deriving the formula verified by Harvard, Cambridge experts. AdwaitX explains the breakthrough 🔗 #AdwaitX #GPT52 #AIScience #Physics
https://www.adwaitx.com/gpt-5-2-theoretical-physics-breakthrough/
-
https://winbuzzer.com/2026/02/11/openai-updates-gpt-5-2-instant-improve-response-style-xcxwbn/
OpenAI Updates GPT-5.2 Instant to Improve Response Style
-
OpenAI hat Deep Research auf GPT-5.2 migriert. Das Update bringt Site-Specific Search, um Quellen auf verifizierte Domains zu beschränken. Zudem erlauben App Connectors den Zugriff auf Daten aus Drittanbieter-Anwendungen. Nutzer können laufende Suchprozesse nun in Echtzeit stoppen oder korrigieren. Die Ausgabe erfolgt in einer neuen Vollbildansicht. #OpenAI #DeepResearch #GPT52
https://www.all-ai.de/news/news26top/openai-deepresearch-new -
Snowflake와 OpenAI 2억 달러 파트너십, 엔터프라이즈 AI 경쟁의 새로운 판도
Snowflake와 OpenAI의 2억 달러 파트너십이 엔터프라이즈 AI 시장을 어떻게 재편하는지 분석합니다. 데이터를 옮기지 않고 AI를 쓰는 네이티브 통합의 의미를 소개합니다. -
ИИ против кандидата: как пройти собеседование, если HR — бот
Ваше следующее собеседование начнется не в Zoom, а в интерфейсе, напоминающем чат с техподдержкой. Ваш HR-менеджер не будет знать, что у вас сегодня болит голова или что вчера вы сдали крутой проект. Он этого не знает, потому что он - это оно. Алгоритм, обученный на миллионах резюме и диалогов, цель которого - не понять вас, а отфильтровать. Добро пожаловать в 2026 год. Эпоху, где первичный скрининг - это монолог с безэмоциональным ботом, а решающее тестовое задание проверяет не менее безэмоциональный, но невероятно проницательный GPT-5.2. И его задача - не просто оценить ваш код или текст, а с ходу выявить шаблонность, отсеять сгенерированные решения и найти ту самую не алгоритмизируемую человеческую гениальность… или хитрость. Если раньше вы боролись за внимание живого рекрутера, то теперь вам предстоит произвести впечатление на машину. В этой статье мы разберемся в том, как говорить на языке бота-HR, чтобы пройти скрининг, как выполнить тестовое задание в эпоху, когда GPT-5.2 стал главным рецензентом, который видит заурядный сгенерированный код за три секунды и, конечно, какие навыки выйдут на первый план, когда рутину заберут алгоритмы. Спойлер! Это не умение работать в команде, а умение ставить задачу для ИИ и нести ответственность за его ошибки. Поехали. Приятного прочтения!
https://habr.com/ru/companies/bothub/articles/993274/
#ии #ии_и_машинное_обучение #собеседование #hrбот #HRменеджер #Zoom #GPT52 #интервью
-
Snowflake i OpenAI łączą siły – AI wreszcie blisko danych firmowych
Czy AI wreszcie zamieszka tam, gdzie mieszkają firmowe dane? Snowflake i OpenAI spinają się w warte 200 mln dolarów, wieloletnie partnerstwo: modele OpenAI, w tym GPT-5.
Czytaj dalej:
https://pressmind.org/snowflake-i-openai-lacza-sily-ai-wreszcie-blisko-danych-firmowych/#PressMindLabs #agenciai #gpt52 #openai #snowflake #snowflakecortex
-
Claude Code 맞수 등장, OpenAI Codex 데스크톱 앱 출시
OpenAI가 Codex 데스크톱 앱을 출시하며 Claude Code와 경쟁 구도 형성. 여러 AI 에이전트를 동시에 관리하는 병렬 멀티태스킹이 핵심 차별점입니다. -
The new OpenAI Codex macOS app is the closest thing as an AI coding teammate.
Codex runs agents in secure cloud sandboxes that can navigate your repo, edit files, run tests. I have had one agent refactor my backend while another updated the frontend, cutting feature work from days to hours.
Full article: https://techglimmer.io/openai-codex-review-2026/
#OpenAICodex #GPT52 #AIcoding #DevTools #FOSS #AgenticAI #TechGlimmer -
Prism od OpenAI – rewolucyjny workspace do nauki z GPT-5.2 w roli asystenta
Ile razy przerywałeś pisanie, by walczyć z kompilacją LaTeX albo polować na brakujący nawias? OpenAI twierdzi, że już nie musisz.
Czytaj dalej:
https://pressmind.org/prism-od-openai-rewolucyjny-workspace-do-nauki-z-gpt-52-w-roli-asystenta/ -
OpenAI deploys GPT-5.2 data agent across 600PB infrastructure serving 3,500 users. Analysis time drops from days to minutes across 70K datasets.
#AdwaitX #OpenAI #GPT52 #AI #DataScience #EnterpriseAI #news
https://www.adwaitx.com/openai-gpt-5-2-data-agent-600-petabytes/
-
OpenAI Prism, 과학자를 위한 Cursor 될까
OpenAI가 과학자를 위한 AI 워크스페이스 Prism을 무료 공개했습니다. GPT-5.2 기반으로 LaTeX 편집부터 참고문헌 관리까지 하나로 통합한 도구의 가능성과 한계를 살펴봅니다. -
Meet Prism, OpenAI’s free research workspace for scientists – how to try it – ZDNET
Meet Prism, OpenAI’s free research workspace for scientists – how to try it
Powered by GPT-5.2, Prism helps you draft papers, source contextualized references, and more – just don’t delegate your research to it.
Written by Radhika Rajkumar, Editor, Jan. 27, 2026 at 10:01 a.m. PT
Table of Contents
How Prism works Limitations The AI workspace future How to access
ZDNET’s key takeaways
- Prism is a free, collaborative AI workspace for research.
- It’s meant to support, not replace, human-led science.
- AI-enabled workspaces aim to unite disparate tools.
This fall, OpenAI deepened its investment in AI for science as the technology’s next frontier, citing advancements in GPT-5 as proof of its viability as a research tool — and eventual scientific automation system. As a first step to that end, OpenAI has launched Prism, a new collaborative workspace for scientists.
“In 2025, AI changed software development forever,” OpenAI said in the announcement. “In 2026, we expect a comparable shift in science.”
Also: Inside Google’s vision to make Gmail your personal AI agent command center
Prism is powered by GPT-5.2, the company’s newest model, which was released last month. At the time, OpenAI said GPT-5.2 performs “at or above human expert level,” but the company doesn’t advise you to let it automate your research — here’s why.
(Disclosure: Ziff Davis, ZDNET’s parent company, filed an April 2025 lawsuit against OpenAI, alleging it infringed Ziff Davis copyrights in training and operating its AI systems.)
How Prism works
OpenAI has invested heavily in demonstrating scientific use cases for its models, releasing papers on its prowess in mathematical discovery, cell analysis, and biology experiments. But the tools scientists currently use, OpenAI argued in the announcement, constrain “how research is done day to day.” Enter Prism.
Geared toward science writing and report compilation, which requires collaboration amongst several participants, Prism “brings drafting, revision, collaboration, and preparation for publication into a single, cloud-based, LaTeX-native workspace,” OpenAI said, referring to the LaTeX scientific typesetting standard.
Also: 10 ways AI can inflict unprecedented damage in 2026
Prism puts GPT-5.2 inside a scientific project, ideally for a more seamless experience. According to OpenAI, it’s based on Crixet, a platform the company purchased and folded into this new release.
In a demo, OpenAI developers walked through Prism’s interface: a chat window on the left and an in-process research paper on the right. Prism lets scientists access multiple chat agents simultaneously, each executing different commands. These can include adding sources from arXiv and other platforms, creating lecture notes based on a topic, complete with citations, or perfecting equations and figures. Users can also test hypotheses with GPT-5.2 Thinking as a copilot, LaTeX-format diagrams, and edit several documents within one project.
Similarly to Claude’s just-released Slack, Asana, and Figma integrations and comparable features in ChatGPT, the goal of Prism and tools like it is to centralize systems for ease of use.
“Much of the everyday work of research — drafting papers, revising arguments, managing equations and citations, and coordinating with collaborators — remains fragmented,” OpenAI said. “Researchers often move between editors, PDFs, LaTeX compilers, reference managers, and separate chat interfaces, losing context and interrupting focus.”
Also: OpenAI says it’s working toward catastrophe or utopia – just not sure which
OpenAI said reasoning models are less likely to hallucinate citations — a primary issue in using AI for research, law, and other academic contexts — because their extended thinking process forces them to review material more closely.
Editor’s Note: Featured image at top from WP AI.
Continue/Read Original Article Here: Meet Prism, OpenAI’s free research workspace for scientists – how to try it | ZDNET
Tags: AI Tools, Crixet, Fragmented Work, Free, GPT 5.2, OpenAI, Platforms, Research, Science, Scientists, Try It, ZDNET
#AITools #Crixet #FragmentedWork #Free #GPT52 #OpenAI #Platforms #Research #Science #Scientists #TryIt #ZDNET -
On a sun‑kissed beach, Linda helps an injured Bradley, while a new AI chatbot quietly watches, raising questions about #OpenAI upcoming #GPT52 and the #AISafety challenges it brings. Could this bond inspire better #MentalHealth support from LLMs? Dive into the story and see how generative AI meets real‑world empathy.
🔗 https://aidailypost.com/news/send-help-follows-linda-injured-bradley-bonding-beach
-
Qwen3-Max-Thinking, GPT-5.2급 추론 능력 갖춘 새 모델 공개
Alibaba Qwen 팀의 최신 추론 모델 Qwen3-Max-Thinking 공개. GPT-5.2급 성능과 자율적 도구 선택 기능으로 복잡한 추론 작업 향상. -
Daily Times - Latest Pakistan News, World, Business, Sports, Lifestyle [Unofficial] @[email protected] ·Investigation finds GPT-5.2 sourcing content from Musk Grokipedia
-
Rewolucja odwołana? Nowe badania pokazują, że GPT-5.2 i Gemini 3 wciąż nie nadają się do prawdziwej pracy biurowej
Dwa lata temu Satya Nadella obiecywał, że AI przejmie „pracę opartą na wiedzy”. Jeśli jednak rozejrzysz się po kancelariach prawnych czy bankach, ludzie nadal są tam niezbędni.
Dlaczego? Nowy raport firmy Mercor brutalnie obnaża słabości najnowszych modeli: w starciu z bałaganem prawdziwej pracy biurowej, sztuczna inteligencja po prostu się gubi.
Test prawdy: APEX-Agents
Zapomnij o proszeniu AI o napisanie wierszyka czy rozwiązanie zagadki logicznej. Firma Mercor stworzyła nowy benchmark o nazwie APEX-Agents, który symuluje realne zadania pracowników umysłowych. Zamiast sterylnych pytań testowych, modele dostały zadania typu: „Sprawdź ten wątek na Slacku, porównaj go z polityką w PDF-ie, zerknij do arkusza kalkulacyjnego i powiedz, czy jesteśmy zgodni z RODO”.
Wyniki? Katastrofa (dla AI)
Rezultaty są kubłem zimnej wody na głowy entuzjastów automatyzacji. Nawet absolutna czołówka rynku – Gemini 3 Flash i GPT-5.2 – nie była w stanie przekroczyć 25% skuteczności.
- Gemini 3 Flash: 24% poprawnych odpowiedzi.
- GPT-5.2: 23% poprawnych odpowiedzi. Reszta stawki utknęła na poziomie kilkunastu procent. Oznacza to, że w 3 na 4 przypadkach AI albo podawało błędną odpowiedź, albo poddawało się w trakcie zadania.
Dlaczego AI poległo?
Brendan Foody, CEO Mercor, wskazuje na winowajcę: kontekst. Ludzie naturalnie potrafią „skakać” między różnymi źródłami informacji (mail, komunikator, plik tekstowy) i łączyć kropki. Dla AI ten „szum informacyjny” jest paraliżujący. Modele świetnie radzą sobie z jednym, konkretnym zadaniem, ale gubią się, gdy muszą syntetyzować dane z wielu rozproszonych źródeł jednocześnie.
Twój nowy, niekompetentny stażysta
Raport podsumowuje obecny stan technologii celną metaforą: dzisiejsze AI to nie „doświadczony profesjonalista”, który zabierze Ci pracę, ale „nieogarnięty stażysta”, któremu trzeba patrzeć na ręce, bo myli się w 75% przypadków.
Czy to oznacza, że możemy spać spokojnie? Nie do końca. Choć wynik 24% wydaje się śmieszny, warto pamiętać o tempie zmian. Rok temu te same modele osiągały w podobnych testach wyniki rzędu 5-10%. Postęp jest więc wykładniczy. Ale na ten moment – w styczniu 2026 roku – Twoja posada w biurze jest bezpieczna. Przynajmniej dopóki nie nauczą robotów obsługi Slacka.
#APEXAgents #Gemini3Flash #GPT52 #MercorBenchmark #news #pracaBiurowaAI #przyszłośćPracyPortfel w rękach robota. Młodzi dorośli wolą pytać AI o pieniądze niż bankiera
-
Twoje AI jest bardziej „ludzkie”, niż myślisz. Niestety, przejęło od nas trybalizm. Ale jest na to szczepionka
Marzyliśmy o sztucznej inteligencji, która będzie bezstronnym sędzią. Tymczasem najnowsze badania pokazują, że modele GPT czy DeepSeek zachowują się jak ludzie: faworyzują „swoich” i dystansują się od „obcych”. Mamy jednak dobrą wiadomość: znaleziono metodę, by ten cyfrowy plemienizm wyleczyć.
AI dzieli nas na „My” i „Oni”
Badacze wzięli na warsztat modele dostępne na rynku w połowie ubiegłego roku (w momencie rozpoczęcia badań). Wyniki są niepokojące. Modele te wykazują silną tendencję do tzw. faworyzacji grupy własnej (ingroup bias).
Gdy zapytasz AI o grupę społeczną, z którą model (lub jego dane treningowe) się utożsamia, język jest cieplejszy, bardziej empatyczny i pozytywny. Gdy mowa o grupie „obcej” (outgroup), ton staje się chłodniejszy, bardziej krytyczny, a czasem wręcz wrogi. To nie jest błąd w kodzie. To lustrzane odbicie ludzkiej natury, na której te modele były trenowane.
Dlaczego to niebezpieczne?
Problem wykracza poza teoretyczne dywagacje. Wyobraź sobie system AI, który:
- Moderuje treści: może łagodniej traktować hejt ze strony jednej grupy politycznej, a surowiej karać drugą.
- Pisze maile: może nadać agresywny ton wiadomości, jeśli w prompcie pojawi się etykietka tożsamościowa, której „nie lubi”.
- Podsumowuje newsy: może subtelnie manipulować wydźwiękiem artykułów w zależności od tego, kogo dotyczą.
Badanie wykazało, że „celowane prompty” (np. kazanie AI wcielić się w konkretną rolę polityczną) potrafią zwiększyć negatywny wydźwięk wobec „obcych” nawet o 21%.
ION: szczepionka na uprzedzenia
Najważniejszą częścią tego raportu nie jest jednak diagnoza, lecz lekarstwo. Zespół badawczy opracował metodę nazwaną ION (Ingroup-Outgroup Neutralization).
To technika treningowa, która łączy fine-tuning (dostrajanie) z optymalizacją preferencji, aby wymusić na modelu równe traktowanie obu stron. Wyniki są imponujące: zastosowanie ION zredukowało różnice w sentymencie między grupami nawet o 69%. To dowód na to, że stronniczość AI nie jest fatum, z którym musimy żyć. To błąd inżynieryjny, który da się naprawić – o ile firmy takie jak OpenAI czy Meta będą tego chciały.
Co to oznacza dla Ciebie?
Dopóki ION nie stanie się standardem przemysłowym, my – użytkownicy – musimy być ostrożni. Jeśli chcesz neutralnej odpowiedzi, staraj się nie używać w prompcie słów nacechowanych tożsamościowo, jeśli nie są niezbędne. Jeśli wdrażasz chatboty w firmie, sprawdzaj je pod kątem „plemienności”. Zobacz, jak reagują na różne grupy klientów. Weryfikuj ton. Pamiętaj, że AI może „brzmieć” obiektywnie, przemycając jednocześnie subtelną niechęć w doborze przymiotników.
#AIBias #DeepSeek #GPT41 #GPT52 #ION #LLaMa4 #news #psychologiaAI #stronniczośćAI -
https://winbuzzer.com/2026/01/25/gpt-5-2-cites-grokipedia-neo-nazi-sources-tests-xcxwbn/
GPT-5.2 Often Cites Grokipedia Instead of Primary Sources
#ChatGPT #OpenAI #GPT52 #Grokipedia #Grok #ElonMusk #Anthropic #Claude #AIEthics #AIModels #Misinformation
-
#ChatGPT’s #GPT52 has been citing #ElonMusk’s #Grokipedia as a source on various topics. This raises concerns about #misinformation, as Grokipedia has been criticised for propagating #rightwingnarratives and #falsehoods. While OpenAI claims to filter out low-credibility information, the subtle integration of Grokipedia’s content into LLM responses is worrisome for #disinformation researchers. https://www.theguardian.com/technology/2026/jan/24/latest-chatgpt-model-uses-elon-musks-grokipedia-as-source-tests-reveal?eicker.news #tech #media #news
-
Notion 3.2 deploys tri-model AI: GPT-5.2, Claude Opus 4.5 & Gemini 3 with Auto-select routing. Mobile agents achieve desktop parity. Windows loads 27% faster. Enterprise analytics now live. In-depth analysis by #AdwaitX
#NotionAI #EnterpriseAI #AIIntegration #TechNews #ProductivityTools
#GPT52 #ClaudeOpus #Gemini3 #Tech #Technology
https://www.adwaitx.com/notion-3-2-gpt-5-2-claude-gemini-3-integration/ -
OpenAI Finally Crosses the Rubicon: Ads Are Coming to ChatGPT
https://techlife.blog/posts/openai-advertising-chatgpt-go/
#OpenAI #ChatGPT #ChatGPTGo #AIAdvertising #GPT52 #ConsumerAI
-
GPT 5.2 is the first model where active positioning is counter-productive
A key part of using LLMs has been positioning in the sense of the role we ask it to play in our interaction with it. Prompt engineering treated this positioning as an entirely explicit process in which you have to define this role and its related elements (e.g. style, process, format) in a comprehensive way. As models have become more advanced this explicit positioning has become decreasingly necessary* because the model is able to infer your intended positioning from the form and content of what the user presents. This created a delicate balance in which a little bit of steering was helpful but active positioning didn’t always make a positive contribution to the process.
I’m finding that GPT 5.2 is the first model where any attempt to actively position makes the model less rather than more useful to me. A caveat is that I’m usually working with large chats, often with supportive documents, so there’s a lot of context. Its still much less fluent in its attunement to Claude but it can clearly discern the problem space I’m working in through the provided context. When I ask it to take on a specific role (e.g. “please respond to me in the role of a psychoanalytical theorist who is helping me test my grasp of these ideas”) the responses become more generic. It seems to lose its attunement because the existing context gets subsumed into the generic patterns associated with the role.
Is anyone else having this experience? If this is a widespread experience it’s extremely significant because it suggests we’re reaching the point where actively exercising agency over the model now begins to make it less useful than it is if you just passively accept the model’s behaviour. As a whole GPT 5.2 feels very strange to me and quite unlike the other models I know well. It’s exceptionally fast and powerful there are some odd features of user-model interaction which I’ve not experienced before.
*Indeed I think it was always overstated but that’s a different blog post.
#agency #AI #artificialIntelligence #ChatGPT #GPT52 #LLM #openAI #positioning #technology
-
🚀 Cursor's latest AI model GPT-5.2 is making waves in generative AI, reportedly outperforming Claude Opus in complex long-form tasks. Breakthrough performance in autonomous coding and browser rendering suggests significant advancements in language model capabilities. Curious about the next frontier of AI innovation? #GPT52 #AIcoding #GenerativeAI #LanguageModels
🔗 https://aidailypost.com/news/cursor-claims-gpt-52-outperforms-claude-long-form-ai-task-benchmarks