2016-08-24 86 views
0

我創建了一個存儲過程來插入90,000條記錄,並在mule anypointstudio中調用它。但是,執行那些在perl中執行相同代碼並在15分鐘內插入的記錄需要8個多小時。如何提高mulesoft存儲過程插入執行速度?

Iam使用批處理來處理存儲過程失敗記錄。我試着改變允許的最大線程數,但沒有找到任何改進。

你能幫我在做錯了嗎?

這裏是騾代碼我使用:

<batch:job name="Import_users_data" max-failed-records="-1"> 
    <batch:threading-profile maxThreadsActive="1000" poolExhaustedAction="RUN"/> 
    <batch:input> 
     <db:stored-procedure config-ref="MyLearn_SQLSERVER_DB_Configuration" doc:name="Database"> 
      <db:parameterized-query><![CDATA[{call spFetch_users_data}]]></db:parameterized-query> 

     </db:stored-procedure> 
     <set-payload value="#[payload.get('resultSet1')]" doc:name="Set Payload"/> 
    </batch:input> 
    <batch:process-records> 
     <batch:step name="users_batch_step"> 
      <db:stored-procedure config-ref="SQLSERVER_DB_Configuration" doc:name="Database" streaming="true"> 
       <db:parameterized-query><![CDATA[{call spIns_data_in_users_table(:in_users_id, :in_first_name, :in_last_name)}]]></db:parameterized-query> 

       <db:in-param name="in_users_id" type="INTEGER" value="#[payload.USERS_ID]"/> 
       <db:in-param name="in_first_name" type="VARCHAR" value="#[payload.FIRST_NAME]"/> 
       <db:in-param name="in_last_name" type="VARCHAR" value="#[payload.LAST_NAME]"/> 


      </db:stored-procedure> 
     </batch:step> 
    </batch:process-records> 
    <batch:on-complete> 
     <logger message="Successfully imported users data.......#['Successfull Records: '+payload.successfulRecords+'Failed Records: '+payload.failedRecords]" level="INFO" doc:name="Logger"/> 
     <flow-ref name="Export_data" doc:name="Export_data"/> 
    </batch:on-complete> 
</batch:job> 

回答

0

@shabrinath,嘗試Batch Block Size值增加到大於100爲Batch Scope的默認值。

+0

我使用任何一個工作室5.4.0批處理塊大小不可用。無法更新,因爲我沒有權限。 Anypointstudio 5.4.0有其他方法嗎? – shabarinath

+0

不幸的是,它可以從Mule 3.8和Anypoint Studio 6以上版本獲得。您可以將Anypoint Studio升級到6以使用此選項。 –