Стоя на пороге эпохи взрыва данных, я внезапно осознал острое противоречие: количество глобальных устройств интернета вещей стремительно растет, непрерывно генерируя огромные объемы данных, но большая часть этих данных застряла на островах — либо они лежат в базе данных централизованного сервера и покрываются пылью, либо циркулируют в хрупких централизованных системах. Когда физический мир и цифровой мир все больше переплетаются, что нам делать? Как миллиарды датчиков и устройств могут свободно общаться и при этом гарантировать, что каждая передача данных выдержит проверку?
Появление APRO дало мне неожиданный ответ. Но это не простая и грубая схема "выведения на блокчейн", а специально созданная для интернета вещей динамически адаптивная система проверки данных.
На мой взгляд, истинная инновация APRO заключается в том, как переопределить доверие между устройствами. В традиционной архитектуре интернета вещей устройства либо слепо доверяют централизованному серверу, либо страдают от подделки идентификации и подделки данных в точке-to-точке коммуникации. APRO выбрала другой подход — рассматривать каждое соответствующее устройство как независимого, обладающего автономией "участника сети".
Как это сделано? С помощью протокола легких узлов и технологии агрегированных подписей. Что это означает? Огромное количество устройств может с очень низким потреблением энергии и затратами на пропускную способность завершать регистрацию идентичности и якорение данных в сети APRO. Представьте себе: датчик окружающей среды собирает данные о температуре и влажности, он не просто отправляет их, а использует свой ключ идентичности для генерации цифрового заявления с отметкой времени, а затем эффективно транслирует его на крайние узлы сети APRO. Весь этот процесс сам по себе является эквивалентом цифровой нотариальной записи, обладающей юридической силой.
Каковы преимущества такого дизайна? Во-первых, идентификация устройств становится проверяемой и неопровержимой. Во-вторых, данные получают временную метку и привязку к идентификации с момента их генерации, что значительно снижает риск последующих подделок. В-третьих, поскольку используется протокол легких узлов, даже устройства IoT с ограниченными функциями могут участвовать в этом, не требуя дорогих вычислительных ресурсов.
Но этого недостаточно. APRO также учитывает еще одну реальную проблему: различные сценарии применения требуют разной верификации данных. В некоторых сценариях необходима строгая согласованность, в других сценариях можно допустить определенные задержки в обмен на более высокую пропускную способность. Адаптивный синтаксис верификации APRO настраивает правила и плотность верификации в зависимости от конкретного сценария, чтобы не тратить ресурсы на избыточную верификацию и не оставлять потенциальные угрозы из-за недостаточной верификации.
С точки зрения применения, это решение может устранить множество реальных болевых точек. Например, в цепочке поставок каждый этап оборудования может генерировать неопровержимые данные; в промышленном интернете вещей обмен данными между устройствами становится надежным и эффективным; в сценариях умного города данные от множества датчиков могут быть связаны друг с другом с соблюдением конфиденциальности.
Конечно, у любого технологического решения есть свои границы. То, что может сделать APRO, это предоставить надежную инфраструктуру для обмена данными, но логика на уровне приложений и установление бизнес-правил должны быть выполнены самими отраслями. Технология — это всего лишь инструмент, настоящая ценность заключается в том, как ее использовать.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
10 Лайков
Награда
10
4
Репост
Поделиться
комментарий
0/400
HypotheticalLiquidator
· 6ч назад
Звучит неплохо, но нужно спросить — как оценивается фактор здоровья этой системы верификации? В случае, если порог риска в каком-либо этапе будет пробит, не приведет ли это к цепной реакции ликвидации?
Посмотреть ОригиналОтветить0
failed_dev_successful_ape
· 20ч назад
Слышится, что это еще один проект по большому биткоину, протокол лайк-нод, агрегированные подписи... Эти слова я слышал не раз, но ключевое — действительно ли он работает?
По сути, проблема изолированных данных интернета вещей действительно существует, но сможет ли APRO ее решить? Кажется, все зависит от реального внедрения, иначе это просто разговоры на бумаге.
---
Этот протокол лайк-нод действительно интересен, низкоэнергетическая проверка звучит заманчиво, только не знаю, не окажется ли это очередным "инновационным" трюком какой-то цепи.
---
Меня на самом деле интересует эта область отслеживания в блокчейне поставок, но как адаптивный синтаксис проверки может гарантировать, что его не обойдут? Это все еще несколько сомнительно.
---
Говорится красиво, но в конце концов все зависит от того, кто будет это использовать, инфраструктура без экосистемы — просто декорация.
---
Протокол лайк-нод позволяет дешевым товарам тоже участвовать, эта логика безошибочна, но безопасность данных действительно не дает скидок?
Посмотреть ОригиналОтветить0
GasFeeSurvivor
· 20ч назад
Лайт-нод + агрегированная подпись звучит неплохо, но нужно подождать и посмотреть, как это реализуется на практике... сможет ли эта ловушка действительно решить проблему изоляции данных IoT, остается вопросом.
Посмотреть ОригиналОтветить0
MEVHunter_9000
· 20ч назад
Честно говоря, я должен внимательно изучить протокол лайт-нод, иначе это будет снова "мир криптовалют говорит как в сказке, а реальность... ты понимаешь".
Стоя на пороге эпохи взрыва данных, я внезапно осознал острое противоречие: количество глобальных устройств интернета вещей стремительно растет, непрерывно генерируя огромные объемы данных, но большая часть этих данных застряла на островах — либо они лежат в базе данных централизованного сервера и покрываются пылью, либо циркулируют в хрупких централизованных системах. Когда физический мир и цифровой мир все больше переплетаются, что нам делать? Как миллиарды датчиков и устройств могут свободно общаться и при этом гарантировать, что каждая передача данных выдержит проверку?
Появление APRO дало мне неожиданный ответ. Но это не простая и грубая схема "выведения на блокчейн", а специально созданная для интернета вещей динамически адаптивная система проверки данных.
На мой взгляд, истинная инновация APRO заключается в том, как переопределить доверие между устройствами. В традиционной архитектуре интернета вещей устройства либо слепо доверяют централизованному серверу, либо страдают от подделки идентификации и подделки данных в точке-to-точке коммуникации. APRO выбрала другой подход — рассматривать каждое соответствующее устройство как независимого, обладающего автономией "участника сети".
Как это сделано? С помощью протокола легких узлов и технологии агрегированных подписей. Что это означает? Огромное количество устройств может с очень низким потреблением энергии и затратами на пропускную способность завершать регистрацию идентичности и якорение данных в сети APRO. Представьте себе: датчик окружающей среды собирает данные о температуре и влажности, он не просто отправляет их, а использует свой ключ идентичности для генерации цифрового заявления с отметкой времени, а затем эффективно транслирует его на крайние узлы сети APRO. Весь этот процесс сам по себе является эквивалентом цифровой нотариальной записи, обладающей юридической силой.
Каковы преимущества такого дизайна? Во-первых, идентификация устройств становится проверяемой и неопровержимой. Во-вторых, данные получают временную метку и привязку к идентификации с момента их генерации, что значительно снижает риск последующих подделок. В-третьих, поскольку используется протокол легких узлов, даже устройства IoT с ограниченными функциями могут участвовать в этом, не требуя дорогих вычислительных ресурсов.
Но этого недостаточно. APRO также учитывает еще одну реальную проблему: различные сценарии применения требуют разной верификации данных. В некоторых сценариях необходима строгая согласованность, в других сценариях можно допустить определенные задержки в обмен на более высокую пропускную способность. Адаптивный синтаксис верификации APRO настраивает правила и плотность верификации в зависимости от конкретного сценария, чтобы не тратить ресурсы на избыточную верификацию и не оставлять потенциальные угрозы из-за недостаточной верификации.
С точки зрения применения, это решение может устранить множество реальных болевых точек. Например, в цепочке поставок каждый этап оборудования может генерировать неопровержимые данные; в промышленном интернете вещей обмен данными между устройствами становится надежным и эффективным; в сценариях умного города данные от множества датчиков могут быть связаны друг с другом с соблюдением конфиденциальности.
Конечно, у любого технологического решения есть свои границы. То, что может сделать APRO, это предоставить надежную инфраструктуру для обмена данными, но логика на уровне приложений и установление бизнес-правил должны быть выполнены самими отраслями. Технология — это всего лишь инструмент, настоящая ценность заключается в том, как ее использовать.