OPEN MIND Technologies AG
We push machining to the limit!
2827
Follower:innenArbeitsspeicher wird nicht ausgenutzt
07.06.2022, 10:22 Uhr
Hallo,
ich habe mir einen neuen Programmierrechner von Terra zugelegt. Leider wird beim Zyklus "optimiertes Schruppen" der CPU nur zu ca.20% genutzt.
Der Haken bei ist aber in den Einstellungen drin bei "Alle CPU Ressourcen zur Zyklenberechnung nutzen"
Hat vielleicht jemand eine Idee an was das liegen kann. Der neue Rechner kommt mir langsamer vor als der ältere Rechner.
MfG
Markus
ich habe mir einen neuen Programmierrechner von Terra zugelegt. Leider wird beim Zyklus "optimiertes Schruppen" der CPU nur zu ca.20% genutzt.
Der Haken bei ist aber in den Einstellungen drin bei "Alle CPU Ressourcen zur Zyklenberechnung nutzen"
Hat vielleicht jemand eine Idee an was das liegen kann. Der neue Rechner kommt mir langsamer vor als der ältere Rechner.
MfG
Markus
08.06.2022, 06:33 Uhr
Hallo,
ich habe mir einen neuen Programmierrechner von Terra zugelegt. Leider wird beim Zyklus "optimiertes Schruppen" der CPU nur zu ca.20% genutzt.
Der Haken bei ist aber in den Einstellungen drin bei "Alle CPU Ressourcen zur Zyklenberechnung nutzen"
Hat vielleicht jemand eine Idee an was das liegen kann. Der neue Rechner kommt mir langsamer vor als der ältere Rechner.
ich habe mir einen neuen Programmierrechner von Terra zugelegt. Leider wird beim Zyklus "optimiertes Schruppen" der CPU nur zu ca.20% genutzt.
Der Haken bei ist aber in den Einstellungen drin bei "Alle CPU Ressourcen zur Zyklenberechnung nutzen"
Hat vielleicht jemand eine Idee an was das liegen kann. Der neue Rechner kommt mir langsamer vor als der ältere Rechner.
Hoi Markus
Stoppe mal die Berechnungszeit wenn alle CPU Ressourcen angewählt sind und vergleiche wenn nicht.
Wenn der Terra über einen Server läuft, kann es sein dass dort der Flaschenhals entsteht.
Mein alter Rechenknecht hatte 12 Kernel und selbst bei Programmen welche angeblich nicht Multicore fähig waren, nutzen mehrere Kernel.
Kann es sein, dass das Programmiersystem mit Win11 oder dem neuen System nicht zurecht kommt?
Ich würde mal den Support vom CAM kontaktieren.
--------------------
Gruss Rainer
"Es gibt immer eine Lösung - manchmal auch eine Andere"l
Meine Ratschläge sind kostenlos und müssen nicht angenommen werden...
"Es gibt immer eine Lösung - manchmal auch eine Andere"l
Meine Ratschläge sind kostenlos und müssen nicht angenommen werden...
08.06.2022, 10:48 Uhr
Moin,
es liegt wohl eher daran, dass die Operation nicht multithreadbar ist. Schau mal, klar bedeuten mehr Kerne auch das etwas paralellisiert werden kann. Man kann sich das etwa so vorstellen wie eine Kasse:
Hast du viele kleine Kunden, können diese schnell parallel durch weitere Kassen abgearbeitet werden. Hast du jetzt aber z.B. 1 Großen Kunden, kann dieser nur an einer Kasse bearbeitet werden. Ergo für viele kleine Aufgaben die unabhängig von der zuvor bearbeiteten Fläche sind, bietet dir das Vorteile, weil dies auch die Software/ die Kassen unterstützten.
Der Computer spielt übrigens dabei keine bzw. kaum eine Rolle. Moderne Rechner schaffen alles. Die meiste Zeit verdaddelt man eher wo anders, weil man nicht konzentriert arbeitet, weniger beim "warten".
es liegt wohl eher daran, dass die Operation nicht multithreadbar ist. Schau mal, klar bedeuten mehr Kerne auch das etwas paralellisiert werden kann. Man kann sich das etwa so vorstellen wie eine Kasse:
Hast du viele kleine Kunden, können diese schnell parallel durch weitere Kassen abgearbeitet werden. Hast du jetzt aber z.B. 1 Großen Kunden, kann dieser nur an einer Kasse bearbeitet werden. Ergo für viele kleine Aufgaben die unabhängig von der zuvor bearbeiteten Fläche sind, bietet dir das Vorteile, weil dies auch die Software/ die Kassen unterstützten.
Der Computer spielt übrigens dabei keine bzw. kaum eine Rolle. Moderne Rechner schaffen alles. Die meiste Zeit verdaddelt man eher wo anders, weil man nicht konzentriert arbeitet, weniger beim "warten".
15.06.2022, 09:12 Uhr
Hoi Markus
Stoppe mal die Berechnungszeit wenn alle CPU Ressourcen angewählt sind und vergleiche wenn nicht.
Wenn der Terra über einen Server läuft, kann es sein dass dort der Flaschenhals entsteht.
Mein alter Rechenknecht hatte 12 Kernel und selbst bei Programmen welche angeblich nicht Multicore fähig waren, nutzen mehrere Kernel.
Kann es sein, dass das Programmiersystem mit Win11 oder dem neuen System nicht zurecht kommt?
Ich würde mal den Support vom CAM kontaktieren.
Stoppe mal die Berechnungszeit wenn alle CPU Ressourcen angewählt sind und vergleiche wenn nicht.
Wenn der Terra über einen Server läuft, kann es sein dass dort der Flaschenhals entsteht.
Mein alter Rechenknecht hatte 12 Kernel und selbst bei Programmen welche angeblich nicht Multicore fähig waren, nutzen mehrere Kernel.
Kann es sein, dass das Programmiersystem mit Win11 oder dem neuen System nicht zurecht kommt?
Ich würde mal den Support vom CAM kontaktieren.
Guten Morgen,
also das Programm ist direkt auf dem Rechner installiert. Und verwendet wird Windows 10 nach wie vor.
Leider habe ich vom Support auch noch keine Info bekommen. Es wurde an Open Mind wohl weiter geleitet.
Leider hat das mit der Mail bekommen wenn eine Antwort gemacht wird nicht funktioniert.
MfG
Markus
16.06.2022, 10:35 Uhr
Moin,
es liegt wohl eher daran, dass die Operation nicht multithreadbar ist. Schau mal, klar bedeuten mehr Kerne auch das etwas paralellisiert werden kann. Man kann sich das etwa so vorstellen wie eine Kasse:
Hast du viele kleine Kunden, können diese schnell parallel durch weitere Kassen abgearbeitet werden. Hast du jetzt aber z.B. 1 Großen Kunden, kann dieser nur an einer Kasse bearbeitet werden. Ergo für viele kleine Aufgaben die unabhängig von der zuvor bearbeiteten Fläche sind, bietet dir das Vorteile, weil dies auch die Software/ die Kassen unterstützten.
Der Computer spielt übrigens dabei keine bzw. kaum eine Rolle. Moderne Rechner schaffen alles. Die meiste Zeit verdaddelt man eher wo anders, weil man nicht konzentriert arbeitet, weniger beim "warten".
es liegt wohl eher daran, dass die Operation nicht multithreadbar ist. Schau mal, klar bedeuten mehr Kerne auch das etwas paralellisiert werden kann. Man kann sich das etwa so vorstellen wie eine Kasse:
Hast du viele kleine Kunden, können diese schnell parallel durch weitere Kassen abgearbeitet werden. Hast du jetzt aber z.B. 1 Großen Kunden, kann dieser nur an einer Kasse bearbeitet werden. Ergo für viele kleine Aufgaben die unabhängig von der zuvor bearbeiteten Fläche sind, bietet dir das Vorteile, weil dies auch die Software/ die Kassen unterstützten.
Der Computer spielt übrigens dabei keine bzw. kaum eine Rolle. Moderne Rechner schaffen alles. Die meiste Zeit verdaddelt man eher wo anders, weil man nicht konzentriert arbeitet, weniger beim "warten".
Airfox hat vollkommen recht.
Es können nicht mehrere Kerne an einem Job rechnen (z.B. optimiertes Schruppen). Auch können nicht schrupp Jobs parallelrechnen die auf das Rohteil vom Vorgänger angewiesen sind.
Das Beispiel mit den Kassen ist super. Du kannst es dir aber auch wie eine große Matheaufgabe vorstellen die du alleine rechnen musst um auf ein Richtiges Ergebnis zu kommen, falls du diese auf mehrere Schüler (in diesem Fall die Kerne) aufteilen würdest wäre dein Ergebnis am ende falsch. Hoffe das ergibt auch ein bisschen Sinn.
Der Beitrag wurde von eggxy bearbeitet: 16.06.2022, 10:39 Uhr
17.06.2022, 15:32 Uhr
Also bei mir springt die CPU Auslastung beim Optimierten Schruppen auf 100%.
Open Mind hat mir das mal so erklärt, dass Hypermill sich das Rohteil wie ein Kuchen in Stücke schneidet, die Stücke dann auf die Kerne aufteilt und am Ende wieder zusammenfügt.
Ich kann mir nicht vorstellen, dass der Job nur über einen Kern berechnet wird. Dafür berechnet er bei mir viel zu schnell auch ziemlich umfangreiche Schruppbearbeitungen.
Open Mind hat mir das mal so erklärt, dass Hypermill sich das Rohteil wie ein Kuchen in Stücke schneidet, die Stücke dann auf die Kerne aufteilt und am Ende wieder zusammenfügt.
Ich kann mir nicht vorstellen, dass der Job nur über einen Kern berechnet wird. Dafür berechnet er bei mir viel zu schnell auch ziemlich umfangreiche Schruppbearbeitungen.
17.06.2022, 21:29 Uhr
Was mich wundert ist warum einfache Jobs, welche keine Rohteile oder andere Referenzen nachziehen nicht parallel berechnet werden.
Das würde bei langen Joblisten mit z.B. 100 Bohrjobs doch eine deutliche Zeiteinsparung bedeuten.
Der Beitrag wurde von CNCDrehling bearbeitet: 17.06.2022, 21:29 Uhr
Das würde bei langen Joblisten mit z.B. 100 Bohrjobs doch eine deutliche Zeiteinsparung bedeuten.
Der Beitrag wurde von CNCDrehling bearbeitet: 17.06.2022, 21:29 Uhr
18.06.2022, 07:20 Uhr
Dazu wurde mir gesagt, dass das aufteilen der Rechenleistung auf die Kerne auch Leistung braucht, und das soll sich für einfache Bohr- oder Planfräsjobs nicht lohnen.
1 Besucher lesen dieses Thema (Gäste: 1)
0 Mitglieder: