阿里云开发者社区
大家在互动
大家在关注
综合
最新
有奖励
免费用
一文解读:阿里云AI基础设施的演进与挑战
对于如何更好地释放云上性能助力AIGC应用创新?“阿里云弹性计算为云上客户提供了ECS GPU DeepGPU增强工具包,帮助用户在云上高效地构建AI训练和AI推理基础设施,从而提高算力利用效率。”李
Apache RocketMQ ACL 2.0 全新升级
RocketMQ ACL 2.0 不管是在模型设计、可扩展性方面,还是安全性和性能方面都进行了全新的升级。旨在能够为用户提供精细化的访问控制,同时,简化权限的配置流程。欢迎大家尝试体验新版本,并应用在
案例分析|线程池相关故障梳理&总结
本文作者梳理和分享了线程池类的故障,分别从故障视角和技术视角两个角度来分析总结,故障视角可以看到现象和教训,而技术视角可以透过现象看到本质更进一步可以看看如何避免。
给技术新人的ODPS优化建议
数据开发基本都是从陌生到熟悉,但是写多了就会发现各种好用的工具/函数,也会发现各种坑,本文分享了作者从拿到数据到数据开发到数据监控的一些实操经验。
通义灵码 AI 编码实战7讲
Spring AI 抢先体验,5 分钟玩转 Java AI 应用开发
Spring Cloud Alibaba AI 以 Spring AI 为基础,并在此基础上提供阿里云通义系列大模型全面适配,让用户在 5 分钟内开发基于通义大模型的 Java AI 应用。
计算新品速递 | 专为高性能计算而生,HPC优化实例正式商业化
AIGC+ 软件开发新范式
AI Agent动手实践训练营
阿里云云原生开源开发者沙龙北京站 PPT 合集
万字长文深度解析JDK序列化原理及Fury高度兼容的极致性能实现
Fury是一个基于JIT动态编译的高性能多语言原生序列化框架,支持Java/Python/Golang/C++/JavaScript等语言,提供全自动的对象多语言/跨语言序列化能力,以及相比于别的框架
【一文看懂】使用hape部署分布式版Havenask
本次分享内容为使用hape部署分布式版Havenask,共2个部分组成(部署分布式版Havenask集群、 分布式相关问题排查),希望可以帮助大家更好了解和使用Havenask。
国内唯一 阿里云荣膺MongoDB“2024年度DBaaS认证合作伙伴奖”
阿里云连续第五年斩获MongoDB合作伙伴奖项,也是唯一获此殊荣的中国云厂商。一起学习MongoDB副本集的选举机制以及可能会出现的特殊情况。
AutoMQ:如何基于阿里云计算与存储产品实现云原生架构升级
AutoMQ[1] 是新一代基于共享存储架构实现的云原生 Kafka。得益于其存算分离的共享存储架构,通过和阿里云合作,深度使用阿里云可靠、先进的云服务如对象存储OSS、块存储 ESSD、弹性伸缩ES
【云效流水线 Flow 测评】驾驭云海:五大场景下的云效Flow实战部署评测
云效是一款企业级持续集成和持续交付工具,提供免费、高可用的服务,集成阿里云多种服务,支持蓝绿、分批、金丝雀等发布策略。其亮点包括快速定位问题、节省维护成本、丰富的企业级特性及与团队协作的契合。基础版和
PolarDB PostgreSQL版Serverless技术原理解读
数据库是现代企业IT系统中非常重要的一部分。在创建数据库时,客户往往需要比较保守地去配置数据库集群的资源,包括CPU、内存、存储以及连接数等多种参数配置,以确保业务能够在波峰和波谷都能平稳运行。在这种
【一文解读】阿里自研开源核心搜索引擎 Havenask简介及发展历史
本次分享内容为Havenask的简介及发展历史,由下面五个部分组成(Havenask整体介绍、名词解释、架构、代码结构、编译与部署),希望可以帮助大家更好了解和使用Havenask。
Sublime Text 3配置 C# 开发环境
【5月更文挑战第2天】本篇 Huazie 介绍了 Sublime Text 3 配置 C# 的相关内容,感兴趣的朋友赶紧配置起来,有任何问题可以随时评论区沟通。
Python Web应用程序构建
【4月更文挑战第11天】Python Web开发涉及多种框架,如Django、Flask和FastAPI,选择合适框架是成功的关键。示例展示了使用Flask创建简单Web应用,以及如何使用ORM(如S
Jira Server 不维护了,如何将 Jira 平滑迁移到阿里云云效
云效是阿里云提供的一站式 DevOps 平台,提供涵盖软件研发全生命周期的研发工具链和研发管理服务,目前已服务数十万家企业。希望进行 Jira 迁移的企业,可以借助云效的项目协作平台 Projex 轻
【深入浅出】阿里自研开源搜索引擎Havenask变更表结构
本文介绍了Havenask的表结构变更,包括表结构简介、全量构建流程和变更表结构三个部分。表结构由schema配置,字段类型包括INT、FLOAT、STRING等,索引有倒排、正排和摘要索引。全量表变
数据管理的艺术:PolarDB开源版详评与实战部署策略(一)
PolarDB-X是阿里巴巴自研的高性能云原生分布式数据库,基于共享存储的Shared-nothing架构,支持MySQL生态,具备金融级高可用、分布式水平扩展、HTAP混合负载等能力。它通过CN(计
MongoDB观点:让生成式AI成为业务增长的新动能,游戏公司可以这样做
游戏公司采用检索增强生成(RAG)技术,如MongoDB Atlas Vector Search,以提高AI输出的准确性和定制化服务。通过灵活的文档数据库如MongoDB Atlas,企业能更好地集成
生成式AI入门必读:基本概念、数据挑战与解决方案
许多企业正在选择MongoDB Atlas。其原生向量搜索功能,加上统一的 API 和灵活的文档模型,对于寻求通过 RAG 方法提取专有数据来增强 LLM 的企业来说,是一个有吸引力的选择。
Fireworks AI和MongoDB:依托您的数据,借助优质模型,助力您开发高速AI应用
我们欣然宣布MongoDB与 Fireworks AI 正携手合作让客户能够利用生成式人工智能 (AI)更快速、更高效、更安全地开展创新活动
Atlas Vector Search:借助语义搜索和 AI 针对任何类型的数据构建智能应用
一切才刚刚开始,MongoDB 致力于提供优秀的开发者数据平台,助力开发者打造新一代 AI 赋能的应用
MongoDB白皮书推荐:零售企业构建员工赋能应用程序的痛点与解决方案
良好的数据基础是打造企业机构所需的最佳员工赋能产品的前提,而 MongoDB Realm 所具备功能性和灵活性足以全面提升员工效率,避免增加基础设施的负担
MongoDB Atlas Vector Search与Amazon Bedrock集成已全面可用
MongoDB Atlas Vector Search知识库与Amazon Bedrock的最新集成,将极大加速生成式AI应用的开发
MaxCompute( 原名ODPS)大数据容灾方案与实现(及项目落地实例)专有云
一,背景与概述? ? 复杂系统的灾难恢复是个难题,具有海量数据及复杂业务场景的大数据容灾是个大难题。? ? MaxCompute是集团内重要数据平台,是自主研发的大数据解决方案,其规模和稳定性在业界都
Streaming Lakehouse Meetup · Online
Streaming Lakehouse Meetup 5月16日 | 线上本次活动由阿里云开源大数据表存储团队负责人、阿里巴巴高级技术专家,Apache Flink PMC,Paimon PPMC 李
阿里云数据库内核 Apache Doris 基于 Workload Group 的负载隔离能力解读
阿里云数据库内核 Apache Doris 基于 Workload Group 的负载隔离能力解读
Flink cdc-pipeline-doris-3.0 新增了第五张表全量同步 怎么排查?
Flink cdc-pipeline-doris-3.0 新增了第五张表全量同步 但原先的表有两张不写增量数据了 感觉像是源头直接就过滤了这个该怎么排查呀应该不是得加第四张表的时候 前面的表有增量
Flink CDC里sqlserver开了cdc后,为什么有一个存储图片的字段在图片较大时就报超长?
Flink CDC里sqlserver开了cdc后为什么有一个存储图片的字段在图片较大时就报超长关掉cdc后同样的图片再保存到该字段就不会报超长错误是为什么flink cdc 底层是做了什么截断操作
Flink CDC里这种binlog问题大家遇到过吗,为什么时不时会出现这种情况失败?
log event entry exceeded max_allowed_packet; Increase max_allowed_packet on master; the first event
Flink CDC里mysql to doris的pipeline方式不支持datatime类型吗?
Flink CDC里mysql to doris的pipeline方式不支持datatime类型吗报这个错怎么办
Flink CDC里如何在flink sql中如何获取到op这个这个隐藏字段?
Flink CDC里源表是mysql使用flink cdc中获取mysql的数据如何在flink sql中如何获取到op这个这个隐藏字段op 插入更新删除这个操作之类的
Flink CDC里我们业务库在PolarDB1.0上,flinkcdc监控的话有什么好的办法吗?
Flink CDC里我们业务库在PolarDB1.0上flinkcdc监控的话有什么好的办法吗一直都用的是这个版本也没升级过现在我是直接监控DRDS下面的rds感觉这样比较麻烦有好的方案吗现在一个d
Flink CDC里mysql-cdc 做全量历史数据同步的时候如何控制同步速度么?
Flink CDC里mysql-cdc 做全量历史数据同步的时候如何控制同步速度么调整chunk-size参数大小么想限速 用cdc-pipeline 下游doris的io负载有些高配置还行 3f
Flink CDC里 这是什么情况?
Flink CDC里 就是设置了SET table.exec.state.ttl 24h 的flink sql cdc任务将mysql表数据全部同步到upsert-kafka后停止任务然后再用最新
Flink CDC里这个怎么处理?
Flink CDC里这个怎么处理cdc-3.0 mysql -->starrocks 整库同步的时候有的有主键有的没主建没有的会报Caused by: org.apache.flink.tab
Flink CDC里pipline doris sink 怎么指定库,文档没看到呢?
Flink CDC里pipline doris sink 怎么指定库文档没看到呢我看到 route 了但是我有几百张表不能每个表都写 route 吧
Flink CDC里有用过cdc+doris实时更新,增删改的业务场景吗?
Flink CDC里有用过cdcdoris实时更新增删改的业务场景吗保证doris和业务数据库1:1一致同时删同时改 我们这边需要保证客户数据库几条数据我们就几条数据客户会硬删数据想保持同步。中间怎
怎么找到PAI-DSW实例的IP?如果DSW实例没有服务器地址,有什么办法给它分配一个吗
想在DSW把ChatGLM3和langchain集成在一起然后有一行代码是这样curl -X POST http://{your_host}:8000 \不知道在DSW里该怎么搞求大佬指点
Flink CDC里用的 flink1.19的 抽mysql写到 paimon报错怎么办?
java.lang.NoClassDefFoundError: com/ververica/cdc/common/utils/StringUtils Flink CDC里我也是这个问题 我用的 fl
Flink CDC里cdh 5.9版本的kafka 指定消费组ID消费,为啥消息能消费?
Flink CDC里请教一个大数据组件问题cdh 5.9版本的kafka 指定消费组ID消费 zk中无法注册consumers 但是消息能消费是为什么
Flink CDC里这是啥问题?
Flink CDC里这是啥问题用了dinky 1.0.2 flink 1.8.1 . perjob on yarn. 任务失败报了这个错。未用pipleline1.8.1
Flink CDC里这个报错怎么办?
Flink CDC里这个报错怎么办Caused by: com.ververica.cdc.connectors.shaded.org.apache.kafka.connect.errors.Con
我自己测试flink cdc 读取MySQL表,通过sql client映射表后,去查询,没有数据?
我自己测试flink cdc 读取MySQL表通过sql client映射表后去查询没有数据任务直接finshed了是什么原因但是我任务本地idea是可以跑的
使用OceanBase数据库时候我们数据存储集中在一个节点上,这个要怎么排查呀?
我提了个帖子参考链接https://ask.oceanbase.com/t/topic/35608279 有个很奇怪的现象使用OceanBase数据库时候我们数据存储集中在一个节点上这个要怎么排查呀
Flink CDC里有没有本地调试connector的文档呀?我想学习下,看看问题出在哪?
Flink CDC里有没有本地调试connector的文档呀我想学习下看看问题出在哪。doris这边还有个问题mysql是TIME类型的话cdc这边没做处理导致报错怎么办
flinkcdc-2.4.2的基础上有表结构变更的同步,用pyflink来实现的话,有没有好的参考呀
flinkcdc-2.4.2的基础上有表结构变更的同步用pyflink来实现的话有没有好的参考呀3.1会有多少source会有pgsql/sqlserver/oracle么这个表结构变更如果用2.4
Flink CDC里如果sink库要换库名只能用route吗?有没有专门指定sink库的库名配置 ?
Flink CDC里如果sink库要换库名只能用route吗有没有专门指定sink库的库名配置 database.mapping这种
flink cdc怎么指定额外resource路径?
flink cdc怎么指定额外resource路径我拷了个hive-site.xml放flink的lib下yarnsession模式能classloader的getresource能get到这个h
Flink CDC里我想问一下检查点的时间一般指多久为好?
Flink CDC里我想问一下检查点的时间一般指多久为好我现在指定5分钟凌晨的时候就报这个错误 requested WAL segment 00000001000004A7000000B0 has
flinkcdc读orcale,这个问题谁遇到过呀?
Retrieve schema history failed, the schema records for engine c6f9ddda-f5f8-4774-b1e3-9884cfb47c71
Flink CDC里 elsaticseach 跨集群同步数据有使用 增量/全量吗?
Flink CDC里 elsaticseach 跨集群同步数据有使用 增量/全量 使用 flink-cdc 可行吗
Flink CDC里flinksql 维表join ,主表同一条数据3s内连续变更是什么造成的?
Flink CDC里flinksql 维表join 主表同一条数据3s内连续变更维表字段会关联出很久以前的数据这种是什么情况造成的呢create table source_trade_order_t