Размер куска партии весны создавая дубликаты

Я запускаю пакетное задание Spring, и всякий раз, когда я увеличиваю размер фрагмента до чего-то большего, чем 1, скажем, размер фрагмента = n, он просто дублирует «N-ю» запись «n» раз вместо добавления N записей. Ниже моя конфигурация, любые указатели пожалуйста?

@Bean
public JobLauncher jobLauncher(JobRepository jobRepository){
    SimpleJobLauncher jobLauncher = new SimpleJobLauncher();
    jobLauncher.setJobRepository(jobRepository);
    return jobLauncher;
}


@Bean
public JobRepository jobRepository(DataSource dataSource, PlatformTransactionManager transactionManager) throws Exception{
    JobRepositoryFactoryBean factoryBean = new JobRepositoryFactoryBean();
    factoryBean.setDataSource(dataSource);
    factoryBean.setTransactionManager(transactionManager);
    factoryBean.setDatabaseType("mysql");
    return factoryBean.getObject();

}


@Bean
public PlatformTransactionManager transactionManager() {
    return new ResourcelessTransactionManager();
}

@Bean
public DataSource dataSource(){
    DriverManagerDataSource datasource = new DriverManagerDataSource();
    datasource.setDriverClassName("com.mysql.jdbc.Driver");
    datasource.setUrl("jdbc:mysql://localhost:3306/mysqltest?useSSL=false");
    datasource.setUsername("user");
    datasource.setPassword("pwd");
    return datasource;
}


@Bean
@Autowired
public Job projectMasterJob(JobBuilderFactory jobs, Step projectMasterDump) {
    return jobs.get("projectMasterJob").incrementer(new RunIdIncrementer())
            .flow(projectMasterDump).end().build();
}


@Bean
@Autowired
public Step projectMasterDump(StepBuilderFactory stepBuilderFactory,
                    FlatFileItemReader projectMasterReader, ItemWriter projectMasterDbWriter) {
    return stepBuilderFactory.get("projectMasterDump")
            .chunk(10).reader(projectMasterReader).writer(projectMasterDbWriter).build();
}

@Bean
@Autowired
public ItemWriter projectMasterDbWriter(DataSource dataSource){
    JdbcBatchItemWriter<ProjectMasterDTO> writer = new JdbcBatchItemWriter<ProjectMasterDTO>();
    writer.setSql(sql);
    writer.setDataSource(dataSource);
    writer.setItemSqlParameterSourceProvider(new BeanPropertyItemSqlParameterSourceProvider<>());
    return writer;
}

@Bean
@Autowired
public FlatFileItemReader projectMasterReader(ProjectMasterDTO projectMasterDTO, DataFormatter dataFormatter){
    ExcelItemReader<ProjectMasterDTO> reader = new ExcelItemReader<>();
    reader.setDataFormatter(dataFormatter);
    reader.setBean(projectMasterDTO);
    reader.setMapperFile(new File("../instance-config/projectMapper.json"));
    return reader;
}


@Bean
@Scope("prototype")
public ProjectMasterDTO projectMasterDTO(){
    return new ProjectMasterDTO();
}

1 ответ

  1. В приведенном выше коде я случайно установил прототип bean на мой одноэлементный читатель. Таким образом, есть только один боб, и он используется повторно, из-за чего, когда происходит процесс chunk, один и тот же Боб перезаписывается, и все объекты «n» в точке сбора к одному Бобу.

    Получение свежего компонента каждый раз в читателе или создание нового экземпляра решает проблему