flink-user-zh mailing list archives

Site index · List index
Message view « Date » · « Thread »
Top « Date » · « Thread »
From 111 <xingh...@163.com>
Subject 回复: Flink SQL1.10使用Mysql作为维表关联,数据量太大导致task manager time out
Date Thu, 02 Apr 2020 02:21:46 GMT


Hi benchao,
原来如此,我这边只是做了普通查询,并没有走join。
我加上join条件再试下哈
Best,
Xinghalo
在2020年04月2日 10:11,Benchao Li<libenchao@gmail.com> 写道:
Hi,

能否把你的SQL也发出来呢?
正常来讲,维表关联用的是join的等值条件作为关联的条件去mysql查询,然后如果还有其他的filter,会在关联之后的结果之上在做filter。如果你发现每次都是扫描全表,很有可能是你的维表join的条件写的有问题导致的。

111 <xinghalo@163.com> 于2020年4月2日周四 上午9:55写道:

Hi,
想确认下MySQL JDBC Connector的实现细节,目前了解到的实现是:
1 获取查询sql中的字段和表名,拼接成select a, b, c from t
2 创建并行输入,如果制定了分区字段,会按照分区字段和并行度切分生成where条件,如where
id between xxx and xxx
3 执行sql,加载到内存(不确定后面缓存的实现细节)



目前我们遇到的问题是,我们把mysql作为维表(表的量级在一千500万左右,并行度为10),没有指定分区条件(只有一个slot执行查询,其他的都没有查询任务)。
结果导致只有一个分区查询数据,查询的sql为select xxx from t(全表查询)。
可是现在并行度由于集群的限制,不能调整的过大,如何实现按需查询呢?


之前我们在datastream api中,是使用异步API,根据某个条件单独查询某条数据,所以速度很快;现在需要全部加载过来,资源消耗太大了。
不知道有没有什么优雅的解决方案?


Best,
Xinghalo



--

Benchao Li
School of Electronics Engineering and Computer Science, Peking University
Tel:+86-15650713730
Email: libenchao@gmail.com; libenchao@pku.edu.cn
Mime
  • Unnamed multipart/alternative (inline, None, 0 bytes)
View raw message