#public_key — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #public_key, aggregated by home.social.
-
AI, которому запрещено быть правым
AI, которому запрещено быть правым Когда AI подключают к криптографической системе, обычно задают вопрос: может ли модель найти правильный ответ? Но в криптографии это неправильный вопрос. Правильный вопрос другой: можно ли встроить AI так, чтобы даже при ошибке он не мог принять опасное решение? В этой статье я показываю, как мы реализовали в nonce-observatory отдельный слой governed solver orchestration — архитектуру, в которой AI может: анализировать public-safe feature contract; предлагать solver routes; строить очередь запусков; помогать с triage и объяснением маршрутов; но не может : видеть truth/private/nonce поля; принимать candidate_d ; принимать k ; формировать recovery claim; превращать свой score в криптографическое evidence. Иными словами: AI suggests. Exact verifier decides. Разбираю, почему для high-assurance систем важен не “умный AI”, а AI без authority , как устроена граница non-escalation, где проходит deterministic integrity gate, и почему в зрелой криптографической системе модель должна оставаться только планировщиком, а не источником истины. Внутри статьи: ECDSA / Schnorr / BIP340 контекст; governed solver orchestration; non-escalation boundary; safe payload и forbidden fields; solver queue vs cryptographic evidence; deterministic verifier; clean-control refusal; claim boundary: что мы не утверждаем . Статья будет полезна не только тем, кто работает с криптографией, но и всем, кто проектирует AI в критических системах, где ошибка модели не должна автоматически становиться принятым фактом.
https://habr.com/ru/articles/1034540/
#cryptography #public_key #audit #HNP #QLLL #nonescalation_boundary #solver_orchestration #trustworthy_AI #AI_governance #безопасность_AI
-
AI, которому запрещено быть правым
AI, которому запрещено быть правым Когда AI подключают к криптографической системе, обычно задают вопрос: может ли модель найти правильный ответ? Но в криптографии это неправильный вопрос. Правильный вопрос другой: можно ли встроить AI так, чтобы даже при ошибке он не мог принять опасное решение? В этой статье я показываю, как мы реализовали в nonce-observatory отдельный слой governed solver orchestration — архитектуру, в которой AI может: анализировать public-safe feature contract; предлагать solver routes; строить очередь запусков; помогать с triage и объяснением маршрутов; но не может : видеть truth/private/nonce поля; принимать candidate_d ; принимать k ; формировать recovery claim; превращать свой score в криптографическое evidence. Иными словами: AI suggests. Exact verifier decides. Разбираю, почему для high-assurance систем важен не “умный AI”, а AI без authority , как устроена граница non-escalation, где проходит deterministic integrity gate, и почему в зрелой криптографической системе модель должна оставаться только планировщиком, а не источником истины. Внутри статьи: ECDSA / Schnorr / BIP340 контекст; governed solver orchestration; non-escalation boundary; safe payload и forbidden fields; solver queue vs cryptographic evidence; deterministic verifier; clean-control refusal; claim boundary: что мы не утверждаем . Статья будет полезна не только тем, кто работает с криптографией, но и всем, кто проектирует AI в критических системах, где ошибка модели не должна автоматически становиться принятым фактом.
https://habr.com/ru/articles/1034540/
#cryptography #public_key #audit #HNP #QLLL #nonescalation_boundary #solver_orchestration #trustworthy_AI #AI_governance #безопасность_AI
-
AI, которому запрещено быть правым
AI, которому запрещено быть правым Когда AI подключают к криптографической системе, обычно задают вопрос: может ли модель найти правильный ответ? Но в криптографии это неправильный вопрос. Правильный вопрос другой: можно ли встроить AI так, чтобы даже при ошибке он не мог принять опасное решение? В этой статье я показываю, как мы реализовали в nonce-observatory отдельный слой governed solver orchestration — архитектуру, в которой AI может: анализировать public-safe feature contract; предлагать solver routes; строить очередь запусков; помогать с triage и объяснением маршрутов; но не может : видеть truth/private/nonce поля; принимать candidate_d ; принимать k ; формировать recovery claim; превращать свой score в криптографическое evidence. Иными словами: AI suggests. Exact verifier decides. Разбираю, почему для high-assurance систем важен не “умный AI”, а AI без authority , как устроена граница non-escalation, где проходит deterministic integrity gate, и почему в зрелой криптографической системе модель должна оставаться только планировщиком, а не источником истины. Внутри статьи: ECDSA / Schnorr / BIP340 контекст; governed solver orchestration; non-escalation boundary; safe payload и forbidden fields; solver queue vs cryptographic evidence; deterministic verifier; clean-control refusal; claim boundary: что мы не утверждаем . Статья будет полезна не только тем, кто работает с криптографией, но и всем, кто проектирует AI в критических системах, где ошибка модели не должна автоматически становиться принятым фактом.
https://habr.com/ru/articles/1034540/
#cryptography #public_key #audit #HNP #QLLL #nonescalation_boundary #solver_orchestration #trustworthy_AI #AI_governance #безопасность_AI
-
AI, которому запрещено быть правым
AI, которому запрещено быть правым Когда AI подключают к криптографической системе, обычно задают вопрос: может ли модель найти правильный ответ? Но в криптографии это неправильный вопрос. Правильный вопрос другой: можно ли встроить AI так, чтобы даже при ошибке он не мог принять опасное решение? В этой статье я показываю, как мы реализовали в nonce-observatory отдельный слой governed solver orchestration — архитектуру, в которой AI может: анализировать public-safe feature contract; предлагать solver routes; строить очередь запусков; помогать с triage и объяснением маршрутов; но не может : видеть truth/private/nonce поля; принимать candidate_d ; принимать k ; формировать recovery claim; превращать свой score в криптографическое evidence. Иными словами: AI suggests. Exact verifier decides. Разбираю, почему для high-assurance систем важен не “умный AI”, а AI без authority , как устроена граница non-escalation, где проходит deterministic integrity gate, и почему в зрелой криптографической системе модель должна оставаться только планировщиком, а не источником истины. Внутри статьи: ECDSA / Schnorr / BIP340 контекст; governed solver orchestration; non-escalation boundary; safe payload и forbidden fields; solver queue vs cryptographic evidence; deterministic verifier; clean-control refusal; claim boundary: что мы не утверждаем . Статья будет полезна не только тем, кто работает с криптографией, но и всем, кто проектирует AI в критических системах, где ошибка модели не должна автоматически становиться принятым фактом.
https://habr.com/ru/articles/1034540/
#cryptography #public_key #audit #HNP #QLLL #nonescalation_boundary #solver_orchestration #trustworthy_AI #AI_governance #безопасность_AI