首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

无法在Windows build 19041上加载UWP项目中的onnx模型,但它可以在Windows build 18363上工作

在Windows操作系统上加载UWP(Universal Windows Platform)项目中的ONNX模型时遇到问题,特别是在Windows 10的build 19041上无法加载,而在build 18363上可以正常工作,这可能是由于操作系统版本之间的差异导致的兼容性问题。以下是一些基础概念、可能的原因以及解决方案:

基础概念

  • UWP:Universal Windows Platform,是微软推出的一个为Windows 10设计的应用平台,允许开发者使用一套代码创建可在多种设备上运行的应用程序。
  • ONNX:Open Neural Network Exchange,是一个开放格式,用于表示深度学习模型,它使得AI模型可以在不同的框架之间轻松转换和共享。

可能的原因

  1. API变更:随着Windows版本的更新,某些API可能发生了变化,导致旧版本的应用程序在新版本的系统上无法正常工作。
  2. 依赖库版本不兼容:项目可能依赖于特定版本的库或框架,而这些库在新版本的Windows上可能不再兼容。
  3. 权限问题:新版本的Windows可能对应用程序的权限管理更加严格,导致某些操作无法执行。

解决方案

  1. 检查API兼容性
    • 使用Windows API Catalog查看是否有API在新版本中被弃用或更改。
    • 更新项目中的API调用,以适应新版本的Windows。
  • 更新依赖库
    • 确保所有依赖库都是最新版本,并且与新版本的Windows兼容。
    • 如果使用了第三方库来加载ONNX模型,检查该库是否有更新以支持新版本的Windows。
  • 权限设置
    • 检查应用程序的清单文件(appxmanifest.xml),确保请求了必要的权限。
    • 在代码中适当地处理权限请求和用户授权。
  • 使用兼容性模式
    • 尝试将应用程序设置为以旧版本的Windows兼容模式运行,看是否能够解决问题。
  • 调试和日志记录
    • 使用Visual Studio的调试工具来定位具体的错误信息。
    • 添加日志记录来跟踪加载ONNX模型的每一步,以便找出问题所在。

示例代码

以下是一个简单的示例,展示如何在UWP项目中加载ONNX模型:

代码语言:txt
复制
using Microsoft.ML.OnnxRuntime;
using Microsoft.ML.OnnxRuntime.Tensors;

public async Task LoadModelAsync(string modelPath)
{
    try
    {
        using var session = new InferenceSession(modelPath);
        // 这里可以添加代码来处理模型输入输出
    }
    catch (Exception ex)
    {
        // 记录错误信息
        Console.WriteLine($"Error loading ONNX model: {ex.Message}");
    }
}

确保modelPath指向正确的ONNX模型文件路径,并且应用程序有权限访问该路径。

应用场景

  • 移动应用开发:UWP适用于开发跨平台的移动应用,ONNX模型可以用于实现各种AI功能,如图像识别、语音处理等。
  • 嵌入式系统:在物联网设备上运行轻量级的AI模型。

通过上述步骤,你应该能够诊断并解决在Windows build 19041上加载UWP项目中的ONNX模型时遇到的问题。如果问题依然存在,建议查看相关的开发者社区和论坛,或者联系微软的技术支持获取进一步的帮助。

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

Windows Developer Day Review

中,开发者可以在 Windows 平台评估训练后的 AI 模型,并可以很方便的把 ONNX 格式的模型文件在 Visual Studio 添加到 UWP 应用中,作为 Assets 的一部分。...Windows AI Platform 有几个显著的优点: 硬件加速  在支持 DirectX12 的硬件设备上,Windows ML 可以利用 GPU 对模型的评估实现加速。...本地评估  Windows ML 可以利用本地硬件进行模型评估,减少了模型上传到云端造成的服务端流量成本和服务端压力。可以更快速便捷的得到结果。...关于 ONNX,是 Microsoft 和 Facebook、Amazon 等公司制定的机器学习模型文件格式标准:ONNX Model。...Windows IoT Enterprise  适用于 Powerful PC 和 Server 设备,在大型设备上可以发挥强劲的作用,如 银行 ATM、医疗设备和工业设备等。

83990

微软将在Windows 10系统中添加人工智能功能

Windows 10的人工智能平台让开发者可以在Windows设备上使用预先训练过的机器学习模型。这为开发人员提供了许多好处: 低延迟的、实时的结果。...通过减少或消除因摄取大数据集而导致的带宽成本,例如摄像机镜头或传感器遥测技术,可以节省大量的成本。复杂的工作负载可以在边缘进行实时处理,并将最少的样本数据发送到云上,以提高对观察的训练。 具有灵活性。...微软的Windows机器学习模型(WinML)评估在不同的硅芯片上对Windows的运行进行了优化。...数据科学家和人工智能模型的开发人员将能够将他们的创新部署到这个庞大的用户群中。每一个在Windows 10上开发应用的开发者都可以使用人工智能模型来实现更强大、更有吸引力的体验。...从Visual Studio Preview 15.7开始,在UWP项目中添加一个ONNX文件将会自动在你的项目中生成一个模型接口。

88950
  • Windows Developer Day - Windows AI Platform

    结合这一描述,我们可以简单总结出 Windows ML 的几个特点: 硬件加速  在支持 DirectX12 的硬件设备上,Windows ML 可以利用 GPU 对模型的评估实现加速。...在目前很多主流模型训练框架中,都有 ONNX 的原生支持,或者可以支持其他格式转换为 ONNX 格式。 ...部分,主要负责模型和设备资源管理,负责加载和编辑核心操作符,执行数据流图 最上层是应用程序层,同样包括了 Win32 和 WinRT 部分;令人欣喜的是,它在所有 2018 年的 Windows 版本上都可用...从上图中可以看出整个 Windows ML 的使用过程: 首先在云端或者本地服务器上训练模型,生成 ONNX 模型文件 把 ONNX 添加到本地开发环境,如 Visual Studio 中 在本地程序中通过...,也就是前面说明的 Windows ML 模型支持格式,被直接添加到了解决方案中的 Assets 文件夹中,Build Action 为 “Content” 而在 mnist.cs 文件中 using

    1.1K110

    .NET周刊【9月第3期 2024-09-15】

    虽然降低了学习难度,提高了效率,但在大型项目中,传统的代码结构仍然必要。顶级语句在复杂项目中可能引发兼容性问题。开发者应根据需求选择使用哪种方式,传统结构在大型项目中具备优势。...Ollama是一种开源的语言模型服务工具,支持多种大型语言模型,方便用户在本地PC上实验、管理和部署。Ollama简化了模型使用的过程,不论是CPU还是GPU都可以使用,算力不足则处理较慢。...文中详细介绍了批量删除、更新操作的代码示例,以及查询过滤器的应用方法。项目资源和文档在 GitHub 上开源,并被纳入 C#/.NET 优秀项目中。...尽管 UWP 已接近被微软放弃,但通过更新底层代码和消除对 .NET Native 的依赖,开发者可以在现有平台上享受新功能。...我使用 ONNX Runtime 的 QNN Execution Provider 在 Snapdragon X Elite 的 NPU 上执行图像分类 - Shibayan Miscellaneous

    10110

    微软推出全新AI平台Windows ML

    微软推出了一个新的AI平台Windows ML,并计划在春季Windows10的更新中加入更多人工智能功能。...在Windows ML平台下,开发人员能够将不同的AI平台导入现有的学习模型,并在安装了Windows10系统的PC设备上使用预先培训的ML模型,并利用CPU和GPU(AMD,Intel,NVIDIA、...从而加快对本地图像及视频数据的实时分析,甚至是后台任务的改进。 此外该技术支持ONNX格式的ML模型行业标准,开发者能够添加ONNX文件至UWP应用中,在并项目中生成模型界面。...Windows ML 能针对任何特定的人工智能工作负载进行有效率的硬件运用,并在多种硬件类型中睿智地分配工作,包括英特尔的视觉处理单元(VPU)。...“在Windows中,我们已经以各种各样的方式使用AI,”微软团队项目经理Kam VedBrat表示,他在微软开发者日网络广播中解释了Windows ML。

    62770

    Copilot+PC:了解Microsoft不断发展的AI计算机堆栈

    数据中心因 AI 工作负载而爆满,但 PC 现在已加入循环,以减轻大型 GPU 安装的压力。 “AI PC”可能是一个流行语,但它也能很好地描述未来几年进入市场的全新类型的 PC。...对于用户来说,软件变得越来越大、越来越好,可以在 PC 上加载大型语言模型,并在没有互联网连接的情况下运行 AI。...有些人可能希望使用其他开源模型,而不依赖于 Microsoft 的堆栈。 Microsoft 引入了一个大型语言模型库,开发人员可以在 Windows 11 PC 上安装和加载该库。...在 Build 上,微软还宣布了对 PyTorch 的原生 Windows 支持——这是使用该框架制作的 LLM 的必要条件。...现在,用户不必每次在 PC 上加载 LLM 时都经历安装 PyTorch 的繁琐过程。 纳德拉说:“原生 PyTorch 支持意味着数千个 OSS 模型将在 Windows 上开箱即用,让您轻松上手。

    16710

    Windows Developer Day - MSIX and Advanced Installer

    MSIX 如 WDD 上 Kevin Gallo 所述,MSIX 要实现的是一个完备的容器化解决方案,它继承了 UWP 几乎所有的重要特性和优点,可以应用到所有 Win32,WPF,Windows Forms...项目中包含了可以解包 .msix .appx 文件的跨平台 API 支持: ? 关于这个 SDK 的依赖项,安装环境要求和每个平台 make 命令对应的文件,大家可以在 GitHub 详细查看。...从描述信息看,项目支持在 Windows,Mac,Linux 上编译,另外还支持在 Windows 上为 Android 平台编译。...实际操作 在官方下载打开后,可以看到首页的操作选项: Desktop Bridge Project -- 可以新建一个项目,把桌面应用转换为 APPX 应用,配置 UWP 应用的各种特性; UWP Appx...到这里我们新建的项目中的 Windows Form EXE 就成功 Build 为 APPX 包了,接下来是 Advanced Installer 的主要编辑部分,我们可以对以下部分进行编辑: Product

    2K60

    【Unity 实用工具】✨| Unity 十款 浏览器相关插件 整理(web view browser)

    所有 3D WebView 包都可以无缝地协同工作,因此您只需将它们安装到同一个项目中,然后 3D WebView 就会在运行时和构建时自动检测并使用正确的插件。...所有 3D WebView 包都可以无缝地协同工作,因此您只需将它们安装到同一个项目中,然后 3D WebView 就会在运行时和构建时自动检测并使用正确的插件。...但是,您实际上可以通过将适用于 Windows 和 macOS 的 3D WebView安装到项目中来在编辑器中加载和渲染真实的 Web 内容。...但是,您实际上可以通过将适用于 Windows 和 macOS 的 3D WebView安装到项目中来在编辑器中加载和渲染真实的 Web 内容。...但是,您实际上可以通过将适用于 Windows 和 macOS 的 3D WebView安装到项目中来在编辑器中加载和渲染真实的 Web 内容。 兼容 Hololens 1 和 2。

    8.7K40

    【AI模型】ncnn深度学习框架配置与使用

    以下是 ncnn 的一些关键特点和优势: 1.轻量级和高效性能:ncnn 是一个轻量级的深度学习框架,可以在资源受限的设备上高效运行。...3.易于集成:ncnn 提供了简洁的 C++ 接口,易于集成到现有项目中。...它可以与各种主流的开发工具和库进行配合,如 OpenCV、TensorFlow Lite、ONNX 等,使开发人员能够更加灵活地使用深度学习模型。...4.丰富的模型支持:ncnn 支持多种深度学习模型的加载和推理,包括常见的卷积神经网络(CNN)、循环神经网络(RNN)、生成对抗网络(GAN)等。...5.开源框架:ncnn 是一个开源框架,源代码托管在 GitHub 上。这使得开发人员能够查看和修改源代码,以满足自己的需求,并享受来自全球社区的支持和贡献。 2.

    44710

    MSRA 系统研究员陈程:MMdnn 如何让模型在不同深度学习框架间转换?

    在深度学习领域,有许多深度学习框架可以让开发者和研究者用于设计模型,每个框架具备各自独特的网络结构定义和模型保存格式。...MMdnn 最开始的设计就考虑了跨平台的需求, MMdnn 不仅可以在 Windows 开发环境下使用,也可以在 Linux 开发环境下使用。...; 进一步提高 MMdnn 的易用性,例如将其主要功能做成一种服务,用户可以在线转换模型而不需要再下载使用; 推进模型可视化工具和可视化模型编辑工具的开发; 利用 MMdnn 进行模型结构分析和探索相关的研究工作...同时更加方便的开发 Windows UWP 和 Android 及 iOS 下深度学习相关的应用; 在微软的 Azure 云计算平台上,微软通过 Azure Machine Learning 和 Azure...除了上述的 MMdnn、Repo 1.0 和 ONNX 这三种深度学习框架「旅行伴侣」,微软在 5 月 7 号的 Build 开发者大会上也发布了不少与 AI 相关的产品,同时也宣布更新了一系列新的 AI

    84530

    Windows Copilot登场,ChatGPT默认用必应搜索,微软联手OpenAI的大宇宙来了

    Dev Home:提升开发人员在 Windows 11 上的工作效率 我们知道,开发人员在工作中需要不断地处理手动开发设置,不仅频繁点击,还要进行多个工具登录、导航次优的文件系统和上下文切换。...同样的,在今天 Build 上,微软表示其愿景已经实现,使用 ONNX Runtime 作为 Windows AI 和 Olive 的网关,微软创建的工具链减轻了用户在优化各种 Windows 和其他设备模型时的负担...借助 ONNX Runtime,第三方开发人员可以访问微软内部使用的工具,以便在 Windows 或跨 CPU、GPU、NPU 或与 Azure 混合的其他设备上运行 AI 模型。...在运行模型时,ONNX Runtime 现在支持在设备上或云端运行相同的 API,支持混合推理场景,此外,用户应用程序可以使用本地资源,并在需要时切换到云端。...ONNX Runtime 使用户可以更轻松地在 Windows 和其他平台上创建令人惊叹的 AI 体验,同时减少工程工作量并提高性能。

    36030

    下一版Win10,微软人工智能平台Windows ML要和你见面了

    另外Win10系统将会Visual Studio 15.7 预览版上增加了ONNX文档到UWP应用里,可自动生成项目模型的交互界面。 现阶段,微软已全公司上下都投入了巨大的资源在AI和机器学习上。...即使是更复杂的任务,更庞大的工作量,也可以做到只传必要的数据到云端就能优化模型训练。 操作灵活选择多 开发者可以在终端执行AI任务,也可以在云端。看他们客户或者应用场景的需求了。...微软支持ONNX(可驱动的机器模型的工业标准格式)。 也就意味着,微软开发者在Azure机器学习工作台上可以用数据科学家训练好的ONNX模型。...在不久的将来,Azure定制视觉服务(微软的图片分类器工具)也会马上支持创建ONNX模型。...另外,我们非常重视微软AI开发者在平台上的开发体验,所以在Visual Studio 15.7 预览版上增加了ONNX文档到UWP应用里,可自动生成项目模型的交互界面。

    1.1K60

    Build 2016:细数给开发者的福利 | TW洞见

    在最近的开发者大会(Build 2016)上,微软面向开发者分享了一系列更新。对于一名开发者来说,整个三天的内容,可以说是惊喜连连,令人激动不已。...实际上,Windows 将内置的是一个 Ubuntu 系统的核心部分,有了它内置在 Windows 中,开发工作一下子“跨过山和大海”了,不用切换环境就直接在 Windows 里完成开发工作。...这基本上意味着在 Windows 上直接完成整个开发工作——不再像以前一样在 Windows 上开发,再跑到 Linux 上跑测试;或者忍受 Linux 糟糕的 GUI 和网页字体的开发体验了。...Xamarin 是先进的跨平台移动应用开发工具,能够使用统一的编程模型开发 iOS、Android 和 Windows UWP 应用程序。....NET Core 这个没有历史包袱的新平台,加上 C# 这样优秀的编程语言,想不火都难;而 UWP 作为微软主推的应用程序模型,对于面向 Windows 用户的应用程序来说,是一个明确的方向。

    975110

    (12) 为了理解 UWP 的启动流程,我从零开始创建了一个 UWP 程序

    然而这些文件在 UWP 程序中到底是如何工作起来的? 我从零开始创建了一个 UWP 程序,用于探索这些文件的用途,了解 UWP 程序的启动流程。...事实上,虽然依然无法完成编译,但此时可以通过在 Visual Studio 中打开这份文件来观察还缺少哪些必要的信息需要填写。 ?...建议从 UWP 程序模板中复制,也可以去这里下载:UWP 程序所需的最少 Logo 资源-CSDN下载。 补充完毕之后,完整的文件如下: <?...总结与后续 在本文中,我们了解到 UWP 项目所需的最少文件有: *.csproj 项目文件 这是整个从零开始的 UWP 程序中最复杂的一个文件,因为目前没有找到任何一个 Sdk 支持 UWP...事实上,这不是最终的清单文件,而是用于在项目中填写信息的文件;从前面的错误信息中我们了解到,最终的清单文件是 AppxManifest.xml。

    1.3K10

    .NET Core 3和对Windows桌面应用程序的支持

    能够在WPF和Windows窗体应用程序中驻留UWP XAML控件。 能够托管UWP浏览器和媒体控件,支持现代浏览器和媒体内容和标准。...从更高层次的视角来看,你可以把WPF想象成在DirectX上的富层,而Windows则是在GDI Plus上的更薄层。...Side-by-side 应用程序本地部署 . net核心部署模型是Windows桌面开发人员在. net Core 3中体验到的最大好处之一。简而言之,你可以以任何你想要的方式安装。...我们计划让WPF和Windows同时具备功能,但其他方面都是如此,并让它们在.net Core 3上工作。事实上,我们已经使用了一些自己的应用程序和其他我们可以访问的应用程序。...我们将发布任何难以支持的api,这样我们就可以得到您的反馈。 更新项目文件 在.NET Core项目中,我们采用了sdk风格的项目。

    2.2K40

    在UWP项目中使用Entity Framework (20210505)

    2.0; EntityFramework相关包的版本号应当小于3.0.0; 现在UWP项目中添加对Class Library的引用,然后再修改Class Library的项目文件; 重要代码片段 <TargetFrameworks...) image.png image.png 设置目标框架版本号为 .NET Standard 2.0: image.png 在UWP项目中添加对Class Library项目的引用 image.png...image.png image.png 在Class Library中创建数据库模型 image.png 对于的文件内容如下: BloggingContext.cs using DataServices.Models...可以通过直接双击DataServices或者右键选择“Edit Project File”来编辑: image.png 编辑前的文件内容如下: 的数据库的位置 var local = Windows.Storage.ApplicationData.Current.LocalFolder; System.Diagnostics.Debug.WriteLine

    58700

    PyTorch模型转TVM模型全流程记录

    -4460 Haswell微架构 内存: 32GB 曾尝试在一台i3-3220(IvyBridge微架构)的虚拟机(2核,4GB内存)上运行,在优化tvm模型后的编译过程中出现KeyError: tile_oh...的检验(可能是Resize算子造成的);最后,直接使用pip安装的onnx1.6.0在tvm中加载会出现segmentationfault,而从源码安装的ONNX1.6.0就不会。...我们可以从Github上随便找一个带预训练参数的模型。这里我找来了一个以前在工作中用到过的EAST文本检测模型。...onnx:checker.check_model的检验,可以略过这一步,如果使用onnx1.6.0的话,可以通过这一步检验,但是在tvm加载后又会出现segmentationfault,这也是上面选择源码安装...模型在i5-4460的电脑上编译很顺利,而在i3-3320的电脑上编译失败,提示KeyError: tile_oh,原因尚未查到,猜测可能跟CPU架构有关。

    2.3K30

    .NET周刊【9月第4期 2024-09-22】

    以前的解决方案Rougamo可以应用在静态方法上,但此包提供了更通用的解决方案。通过引入NuGet包并使用简单初始化,即可在静态环境中访问Scoped对象。...核心技术采用 FFmpeg,项目在 GitHub 上颇受欢迎。该播放器界面简洁,自带动画效果,支持歌词滚动和多种模式切换。提供绿色便携版和可安装版,仅支持 Windows。...通过对 .NET 9 和本机 AOT 的预览 UWP 支持来现代化您的 UWP 应用 - #ifdef Windows https://devblogs.microsoft.com/ifdef-windows...我使用 ONNX Runtime 的 QNN Execution Provider 在 Snapdragon X Elite 的 NPU 上执行图像分类 - Shibayan Miscellaneous...-vector.html 如何通过运行 ONNX 运行时和 Phi-3 模型作为 sidecar 后端来在 Azure Linux 应用服务中实现本地 LAG。

    8210

    让模型从Pytorch到NCNN——Pytorch模型向NCNN框架部署的小白向详细流程(PNNX模型转换、Linux模型使用)

    万分感激orz零、NCNN 使用动机与简介使用背景实际上在写这篇博客的时候我还没有试着部署到树莓派等嵌入式设备上,并且后续才发现我转换的模型有些许问题(悲)不过这是我模型本身代码的问题,和转换与部署过程无关...随后我了解到了,部署到嵌入式设备上需要借助一些深度学习模型部署框架,这其中最著名的可能就是 ONNX (Open Neural Network Exchange) 了,我在阅读论文中也时常看到这个词汇,...://github.com/Tencent/ncnn/wiki#faq)为何要用NCNN由于我是小白,基本上也就听风就是雨,从我咨询的信息来看,ONNX 框架过老,很多新的算子都没有得到支持,以及据说模型在向...不过在作者撰写博客的时候这个网站暂时无法访问。pytorch 模型转 torchscript:首先需要将整个模型导出为 torchscript 模型。...我的模型里可以添加合成时对语调、持续时长等的干扰,在追踪模型时必须要将这些设置为0,可能会出现的相关报错如下:针对我的项目中,出现了torch.nn.utils.weight_norm在转换时出现 warning

    83110
    领券