0
我創建了一個存儲過程來插入90,000條記錄,並在mule anypointstudio中調用它。但是,執行那些在perl中執行相同代碼並在15分鐘內插入的記錄需要8個多小時。如何提高mulesoft存儲過程插入執行速度?
Iam使用批處理來處理存儲過程失敗記錄。我試着改變允許的最大線程數,但沒有找到任何改進。
你能幫我在做錯了嗎?
這裏是騾代碼我使用:
<batch:job name="Import_users_data" max-failed-records="-1">
<batch:threading-profile maxThreadsActive="1000" poolExhaustedAction="RUN"/>
<batch:input>
<db:stored-procedure config-ref="MyLearn_SQLSERVER_DB_Configuration" doc:name="Database">
<db:parameterized-query><![CDATA[{call spFetch_users_data}]]></db:parameterized-query>
</db:stored-procedure>
<set-payload value="#[payload.get('resultSet1')]" doc:name="Set Payload"/>
</batch:input>
<batch:process-records>
<batch:step name="users_batch_step">
<db:stored-procedure config-ref="SQLSERVER_DB_Configuration" doc:name="Database" streaming="true">
<db:parameterized-query><![CDATA[{call spIns_data_in_users_table(:in_users_id, :in_first_name, :in_last_name)}]]></db:parameterized-query>
<db:in-param name="in_users_id" type="INTEGER" value="#[payload.USERS_ID]"/>
<db:in-param name="in_first_name" type="VARCHAR" value="#[payload.FIRST_NAME]"/>
<db:in-param name="in_last_name" type="VARCHAR" value="#[payload.LAST_NAME]"/>
</db:stored-procedure>
</batch:step>
</batch:process-records>
<batch:on-complete>
<logger message="Successfully imported users data.......#['Successfull Records: '+payload.successfulRecords+'Failed Records: '+payload.failedRecords]" level="INFO" doc:name="Logger"/>
<flow-ref name="Export_data" doc:name="Export_data"/>
</batch:on-complete>
</batch:job>
我使用任何一個工作室5.4.0批處理塊大小不可用。無法更新,因爲我沒有權限。 Anypointstudio 5.4.0有其他方法嗎? – shabarinath
不幸的是,它可以從Mule 3.8和Anypoint Studio 6以上版本獲得。您可以將Anypoint Studio升級到6以使用此選項。 –