<html><body><div style="font-family: times new roman, new york, times, serif; font-size: 12pt; color: #000000"><div><br></div><div>All 3 baremetal nodes (1 undercloud, 2 overcloud) have 2 nics.</div><div><br></div><div>the undercloud machine's ip config is as follows:</div><div><br></div><div><p style="margin: 0px;" data-mce-style="margin: 0px;">[stack@undercloud ~]$ ip addr<br>1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN <br> link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00<br> inet 127.0.0.1/8 scope host lo<br> valid_lft forever preferred_lft forever<br> inet6 ::1/128 scope host <br> valid_lft forever preferred_lft forever<br>2: em1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen 1000<br> link/ether 08:9e:01:50:8a:21 brd ff:ff:ff:ff:ff:ff<br> inet 10.1.34.81/24 brd 10.1.34.255 scope global em1<br> valid_lft forever preferred_lft forever<br> inet6 fe80::a9e:1ff:fe50:8a21/64 scope link <br> valid_lft forever preferred_lft forever<br>3: em2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq master ovs-system state UP qlen 1000<br> link/ether 08:9e:01:50:8a:22 brd ff:ff:ff:ff:ff:ff<br>4: ovs-system: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN <br> link/ether 9a:a8:0f:ec:42:15 brd ff:ff:ff:ff:ff:ff<br>5: br-ctlplane: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UNKNOWN <br> link/ether 08:9e:01:50:8a:22 brd ff:ff:ff:ff:ff:ff<br> inet 192.0.2.1/24 brd 192.0.2.255 scope global br-ctlplane<br> valid_lft forever preferred_lft forever<br> inet6 fe80::a9e:1ff:fe50:8a22/64 scope link <br> valid_lft forever preferred_lft forever<br>6: br-int: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN <br> link/ether fa:85:ac:92:f5:41 brd ff:ff:ff:ff:ff:ff</p><p style="margin: 0px;" data-mce-style="margin: 0px;"><br></p><p style="margin: 0px;" data-mce-style="margin: 0px;">I am using em2 for pxe boot on the other machines.. So I configured instackenv.json to have em2's MAC address</p></div><div>For overcloud nodes, em1 was configured to have 10.1.34.x ip, but after image deploy I am not sure what happened for that nic.</div><div><br></div><div>Thanks</div><div><br></div><div><span name="x"></span><div></div>
<div style="font-family: Tahoma,Geneva,sans-serif; color: #cc0000; font-size: 9px;"><strong>Esra ÇELİK</strong></div><div style="font-family: Tahoma,Geneva,sans-serif; color: #404040; font-size: 9px;">
</div>
<div style="font-family: Tahoma,Geneva,sans-serif; color: #404040; font-size: 9px;">TÜBİTAK BİLGEM</div>
<div style="margin-top: 4px; font-family: Tahoma,Geneva,sans-serif; color: #404040; font-size: 9px;"><span class="Object" id="OBJ_PREFIX_DWT517_com_zimbra_url"><a href="http://www.bilgem.tubitak.gov.tr">www.bilgem.tubitak.gov.tr</a></span></div>
<div style="margin-top: 4px; font-family: Tahoma,Geneva,sans-serif; color: #404040; font-size: 9px;"><span class="Object"><a href="mailto:celik.esra@tubitak.gov.tr">celik.esra@tubitak.gov.tr</a></span></div></div><hr id="zwchr"><blockquote style="border-left:2px solid #1010FF;margin-left:5px;padding-left:5px;color:#000;font-weight:normal;font-style:normal;text-decoration:none;font-family:Helvetica,Arial,sans-serif;font-size:12pt;"><b>Kimden: </b>"Marius Cornea" <mcornea@redhat.com><br><b>Kime: </b>"Esra Celik" <celik.esra@tubitak.gov.tr><br><b>Kk: </b>"Sasha Chuzhoy" <sasha@redhat.com>, rdo-list@redhat.com<br><b>Gönderilenler: </b>19 Ekim Pazartesi 2015 15:36:58<br><b>Konu: </b>Re: [Rdo-list] OverCloud deploy fails with error "No valid host was found"<br><div><br></div>Hi,<br><div><br></div>I believe the nodes were stuck in introspection so they were not ready for deployment thus the not enough hosts message. Can you describe the networking setup (how many nics the nodes have and to what networks they're connected)? <br><div><br></div>Thanks,<br>Marius<br><div><br></div>----- Original Message -----<br>> From: "Esra Celik" <celik.esra@tubitak.gov.tr><br>> To: "Sasha Chuzhoy" <sasha@redhat.com><br>> Cc: "Marius Cornea" <mcornea@redhat.com>, rdo-list@redhat.com<br>> Sent: Monday, October 19, 2015 12:34:32 PM<br>> Subject: Re: [Rdo-list] OverCloud deploy fails with error "No valid host was found"<br>> <br>> Hi again,<br>> <br>> "nova list" was empty after introspection stage which was not completed<br>> successfully. So I cloud not ssh the nodes.. Is there another way to obtain<br>> the IP addresses?<br>> <br>> [stack@undercloud ~]$ sudo systemctl|grep ironic<br>> openstack-ironic-api.service loaded active running OpenStack Ironic API<br>> service<br>> openstack-ironic-conductor.service loaded active running OpenStack Ironic<br>> Conductor service<br>> openstack-ironic-inspector-dnsmasq.service loaded active running PXE boot<br>> dnsmasq service for Ironic Inspector<br>> openstack-ironic-inspector.service loaded active running Hardware<br>> introspection service for OpenStack Ironic<br>> <br>> If I start deployment anyway I get 2 nodes in ERROR state<br>> <br>> [stack@undercloud ~]$ openstack overcloud deploy --templates<br>> Deploying templates in the directory<br>> /usr/share/openstack-tripleo-heat-templates<br>> Stack failed with status: resources.Controller: resources[0]:<br>> ResourceInError: resources.Controller: Went to status ERROR due to "Message:<br>> No valid host was found. There are not enough hosts available., Code: 500"<br>> <br>> [stack@undercloud ~]$ nova list<br>> +--------------------------------------+-------------------------+--------+------------+-------------+----------+<br>> | ID | Name | Status | Task State | Power State | Networks |<br>> +--------------------------------------+-------------------------+--------+------------+-------------+----------+<br>> | 3a8e1fe4-d189-4fce-9912-dcf49fefb000 | overcloud-controller-0 | ERROR | - |<br>> | NOSTATE | |<br>> | 616b45c6-2749-418f-8aa4-fe2bfe164782 | overcloud-novacompute-0 | ERROR | -<br>> | | NOSTATE | |<br>> +--------------------------------------+-------------------------+--------+------------+-------------+----------+<br>> <br>> Did the repositories update during weekend? Should I better restart the<br>> overall Undercloud and Overcloud installation from the beginning?<br>> <br>> Thanks.<br>> <br>> Esra ÇELİK<br>> Uzman Araştırmacı<br>> Bilişim Teknolojileri Enstitüsü<br>> TÜBİTAK BİLGEM<br>> 41470 GEBZE - KOCAELİ<br>> T +90 262 675 3140<br>> F +90 262 646 3187<br>> www.bilgem.tubitak.gov.tr<br>> celik.esra@tubitak.gov.tr<br>> ................................................................<br>> <br>> Sorumluluk Reddi<br>> <br>> ----- Orijinal Mesaj -----<br>> <br>> > Kimden: "Sasha Chuzhoy" <sasha@redhat.com><br>> > Kime: "Esra Celik" <celik.esra@tubitak.gov.tr><br>> > Kk: "Marius Cornea" <mcornea@redhat.com>, rdo-list@redhat.com<br>> > Gönderilenler: 16 Ekim Cuma 2015 18:44:49<br>> > Konu: Re: [Rdo-list] OverCloud deploy fails with error "No valid host was<br>> > found"<br>> <br>> > Hi Esra,<br>> > if the undercloud nodes are UP - you can login with: ssh heat-admin@<IP><br>> > You can see the IP of the nodes with: "nova list".<br>> > BTW,<br>> > What do you see if you run "sudo systemctl|grep ironic" on the undercloud?<br>> <br>> > Best regards,<br>> > Sasha Chuzhoy.<br>> <br>> > ----- Original Message -----<br>> > > From: "Esra Celik" <celik.esra@tubitak.gov.tr><br>> > > To: "Sasha Chuzhoy" <sasha@redhat.com><br>> > > Cc: "Marius Cornea" <mcornea@redhat.com>, rdo-list@redhat.com<br>> > > Sent: Friday, October 16, 2015 1:40:16 AM<br>> > > Subject: Re: [Rdo-list] OverCloud deploy fails with error "No valid host<br>> > > was found"<br>> > ><br>> > > Hi Sasha,<br>> > ><br>> > > I have 3 nodes, 1 Undercloud, 1 Overcloud-Controller, 1 Overcloud-Compute<br>> > ><br>> > > This is my undercloud.conf file:<br>> > ><br>> > > image_path = .<br>> > > local_ip = 192.0.2.1/24<br>> > > local_interface = em2<br>> > > masquerade_network = 192.0.2.0/24<br>> > > dhcp_start = 192.0.2.5<br>> > > dhcp_end = 192.0.2.24<br>> > > network_cidr = 192.0.2.0/24<br>> > > network_gateway = 192.0.2.1<br>> > > inspection_interface = br-ctlplane<br>> > > inspection_iprange = 192.0.2.100,192.0.2.120<br>> > > inspection_runbench = false<br>> > > undercloud_debug = true<br>> > > enable_tuskar = false<br>> > > enable_tempest = false<br>> > ><br>> > > IP configuration for the Undercloud is as follows:<br>> > ><br>> > > stack@undercloud ~]$ ip addr<br>> > > 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN<br>> > > link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00<br>> > > inet 127.0.0.1/8 scope host lo<br>> > > valid_lft forever preferred_lft forever<br>> > > inet6 ::1/128 scope host<br>> > > valid_lft forever preferred_lft forever<br>> > > 2: em1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP qlen<br>> > > 1000<br>> > > link/ether 08:9e:01:50:8a:21 brd ff:ff:ff:ff:ff:ff<br>> > > inet 10.1.34.81/24 brd 10.1.34.255 scope global em1<br>> > > valid_lft forever preferred_lft forever<br>> > > inet6 fe80::a9e:1ff:fe50:8a21/64 scope link<br>> > > valid_lft forever preferred_lft forever<br>> > > 3: em2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq master<br>> > > ovs-system<br>> > > state UP qlen 1000<br>> > > link/ether 08:9e:01:50:8a:22 brd ff:ff:ff:ff:ff:ff<br>> > > 4: ovs-system: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN<br>> > > link/ether 9a:a8:0f:ec:42:15 brd ff:ff:ff:ff:ff:ff<br>> > > 5: br-ctlplane: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue<br>> > > state UNKNOWN<br>> > > link/ether 08:9e:01:50:8a:22 brd ff:ff:ff:ff:ff:ff<br>> > > inet 192.0.2.1/24 brd 192.0.2.255 scope global br-ctlplane<br>> > > valid_lft forever preferred_lft forever<br>> > > inet6 fe80::a9e:1ff:fe50:8a22/64 scope link<br>> > > valid_lft forever preferred_lft forever<br>> > > 6: br-int: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN<br>> > > link/ether fa:85:ac:92:f5:41 brd ff:ff:ff:ff:ff:ff<br>> > ><br>> > > And I attached two screenshots showing the boot stage for overcloud nodes<br>> > ><br>> > > Is there a way to login the overcloud nodes to see their IP<br>> > > configuration?<br>> > ><br>> > > Thanks<br>> > ><br>> > > Esra ÇELİK<br>> > > TÜBİTAK BİLGEM<br>> > > www.bilgem.tubitak.gov.tr<br>> > > celik.esra@tubitak.gov.tr<br>> > ><br>> > > ----- Orijinal Mesaj -----<br>> > ><br>> > > > Kimden: "Sasha Chuzhoy" <sasha@redhat.com><br>> > > > Kime: "Esra Celik" <celik.esra@tubitak.gov.tr><br>> > > > Kk: "Marius Cornea" <mcornea@redhat.com>, rdo-list@redhat.com<br>> > > > Gönderilenler: 15 Ekim Perşembe 2015 16:58:41<br>> > > > Konu: Re: [Rdo-list] OverCloud deploy fails with error "No valid host<br>> > > > was<br>> > > > found"<br>> > ><br>> > > > Just my 2 cents.<br>> > > > Did you make sure that all the registered nodes are configured to boot<br>> > > > off<br>> > > > the right NIC first?<br>> > > > Can you watch the console and see what happens on the problematic nodes<br>> > > > upon<br>> > > > boot?<br>> > ><br>> > > > Best regards,<br>> > > > Sasha Chuzhoy.<br>> > ><br>> > > > ----- Original Message -----<br>> > > > > From: "Esra Celik" <celik.esra@tubitak.gov.tr><br>> > > > > To: "Marius Cornea" <mcornea@redhat.com><br>> > > > > Cc: rdo-list@redhat.com<br>> > > > > Sent: Thursday, October 15, 2015 4:40:46 AM<br>> > > > > Subject: Re: [Rdo-list] OverCloud deploy fails with error "No valid<br>> > > > > host<br>> > > > > was found"<br>> > > > ><br>> > > > ><br>> > > > > Sorry for the late reply<br>> > > > ><br>> > > > > ironic node-show results are below. I have my nodes power on after<br>> > > > > introspection bulk start. And I get the following warning<br>> > > > > Introspection didn't finish for nodes<br>> > > > > 5b28998f-4dc8-42aa-8a51-521e20b1e5ed,6f35ac24-135d-4b99-8a24-fa2b731bd218<br>> > > > ><br>> > > > > Doesn't seem to be the same issue with<br>> > > > > https://www.redhat.com/archives/rdo-list/2015-October/msg00174.html<br>> > > > ><br>> > > > ><br>> > > > ><br>> > > > ><br>> > > > > [stack@undercloud ~]$ ironic node-list<br>> > > > > +--------------------------------------+------+---------------+-------------+--------------------+-------------+<br>> > > > > | UUID | Name | Instance UUID | Power State | Provisioning State |<br>> > > > > | Maintenance |<br>> > > > > +--------------------------------------+------+---------------+-------------+--------------------+-------------+<br>> > > > > | 5b28998f-4dc8-42aa-8a51-521e20b1e5ed | None | None | power on |<br>> > > > > | available<br>> > > > > | |<br>> > > > > | False |<br>> > > > > | 6f35ac24-135d-4b99-8a24-fa2b731bd218 | None | None | power on |<br>> > > > > | available<br>> > > > > | |<br>> > > > > | False |<br>> > > > > +--------------------------------------+------+---------------+-------------+--------------------+-------------+<br>> > > > ><br>> > > > ><br>> > > > > [stack@undercloud ~]$ ironic node-show<br>> > > > > 5b28998f-4dc8-42aa-8a51-521e20b1e5ed<br>> > > > > +------------------------+-------------------------------------------------------------------------+<br>> > > > > | Property | Value |<br>> > > > > +------------------------+-------------------------------------------------------------------------+<br>> > > > > | target_power_state | None |<br>> > > > > | extra | {} |<br>> > > > > | last_error | None |<br>> > > > > | updated_at | 2015-10-15T08:26:42+00:00 |<br>> > > > > | maintenance_reason | None |<br>> > > > > | provision_state | available |<br>> > > > > | clean_step | {} |<br>> > > > > | uuid | 5b28998f-4dc8-42aa-8a51-521e20b1e5ed |<br>> > > > > | console_enabled | False |<br>> > > > > | target_provision_state | None |<br>> > > > > | provision_updated_at | 2015-10-15T08:26:42+00:00 |<br>> > > > > | maintenance | False |<br>> > > > > | inspection_started_at | None |<br>> > > > > | inspection_finished_at | None |<br>> > > > > | power_state | power on |<br>> > > > > | driver | pxe_ipmitool |<br>> > > > > | reservation | None |<br>> > > > > | properties | {u'memory_mb': u'8192', u'cpu_arch': u'x86_64',<br>> > > > > | u'local_gb':<br>> > > > > | u'10', |<br>> > > > > | | u'cpus': u'4', u'capabilities': u'boot_option:local'} |<br>> > > > > | instance_uuid | None |<br>> > > > > | name | None |<br>> > > > > | driver_info | {u'ipmi_password': u'******', u'ipmi_address':<br>> > > > > | u'192.168.0.18', |<br>> > > > > | | u'ipmi_username': u'root', u'deploy_kernel':<br>> > > > > | | u'49a2c8d4-a283-4bdf-8d6f-<br>> > > > > | | |<br>> > > > > | | e83ae28da047', u'deploy_ramdisk': u'3db3dbed- |<br>> > > > > | | 0d88-4632-af98-8defb05ca6e2'} |<br>> > > > > | created_at | 2015-10-15T07:49:08+00:00 |<br>> > > > > | driver_internal_info | {u'clean_steps': None} |<br>> > > > > | chassis_uuid | |<br>> > > > > | instance_info | {} |<br>> > > > > +------------------------+-------------------------------------------------------------------------+<br>> > > > ><br>> > > > ><br>> > > > > [stack@undercloud ~]$ ironic node-show<br>> > > > > 6f35ac24-135d-4b99-8a24-fa2b731bd218<br>> > > > > +------------------------+-------------------------------------------------------------------------+<br>> > > > > | Property | Value |<br>> > > > > +------------------------+-------------------------------------------------------------------------+<br>> > > > > | target_power_state | None |<br>> > > > > | extra | {} |<br>> > > > > | last_error | None |<br>> > > > > | updated_at | 2015-10-15T08:26:42+00:00 |<br>> > > > > | maintenance_reason | None |<br>> > > > > | provision_state | available |<br>> > > > > | clean_step | {} |<br>> > > > > | uuid | 6f35ac24-135d-4b99-8a24-fa2b731bd218 |<br>> > > > > | console_enabled | False |<br>> > > > > | target_provision_state | None |<br>> > > > > | provision_updated_at | 2015-10-15T08:26:42+00:00 |<br>> > > > > | maintenance | False |<br>> > > > > | inspection_started_at | None |<br>> > > > > | inspection_finished_at | None |<br>> > > > > | power_state | power on |<br>> > > > > | driver | pxe_ipmitool |<br>> > > > > | reservation | None |<br>> > > > > | properties | {u'memory_mb': u'8192', u'cpu_arch': u'x86_64',<br>> > > > > | u'local_gb':<br>> > > > > | u'100', |<br>> > > > > | | u'cpus': u'4', u'capabilities': u'boot_option:local'} |<br>> > > > > | instance_uuid | None |<br>> > > > > | name | None |<br>> > > > > | driver_info | {u'ipmi_password': u'******', u'ipmi_address':<br>> > > > > | u'192.168.0.19', |<br>> > > > > | | u'ipmi_username': u'root', u'deploy_kernel':<br>> > > > > | | u'49a2c8d4-a283-4bdf-8d6f-<br>> > > > > | | |<br>> > > > > | | e83ae28da047', u'deploy_ramdisk': u'3db3dbed- |<br>> > > > > | | 0d88-4632-af98-8defb05ca6e2'} |<br>> > > > > | created_at | 2015-10-15T07:49:08+00:00 |<br>> > > > > | driver_internal_info | {u'clean_steps': None} |<br>> > > > > | chassis_uuid | |<br>> > > > > | instance_info | {} |<br>> > > > > +------------------------+-------------------------------------------------------------------------+<br>> > > > > [stack@undercloud ~]$<br>> > > > ><br>> > > > ><br>> > > > ><br>> > > > ><br>> > > > ><br>> > > > ><br>> > > > ><br>> > > > ><br>> > > > ><br>> > > > > And below I added my history for the stack user. I don't think I am<br>> > > > > doing<br>> > > > > something other than<br>> > > > > https://repos.fedorapeople.org/repos/openstack-m/rdo-manager-docs/liberty<br>> > > > > doc<br>> > > > ><br>> > > > ><br>> > > > ><br>> > > > ><br>> > > > ><br>> > > > ><br>> > > > ><br>> > > > > 1 vi instackenv.json<br>> > > > > 2 sudo yum -y install epel-release<br>> > > > > 3 sudo curl -o /etc/yum.repos.d/delorean.repo<br>> > > > > http://trunk.rdoproject.org/centos7-liberty/current-passed-ci/delorean.repo<br>> > > > > 4 sudo curl -o /etc/yum.repos.d/delorean-current.repo<br>> > > > > http://trunk.rdoproject.org/centos7-liberty/current/delorean.repo<br>> > > > > 5 sudo sed -i 's/\[delorean\]/\[delorean-current\]/'<br>> > > > > /etc/yum.repos.d/delorean-current.repo<br>> > > > > 6 sudo /bin/bash -c "cat<br>> > > > > <<EOF>>/etc/yum.repos.d/delorean-current.repo<br>> > > > ><br>> > > > > includepkgs=diskimage-builder,openstack-heat,instack,instack-undercloud,openstack-ironic,openstack-ironic-inspector,os-cloud-config,os-net-config,python-ironic-inspector-client,python-tripleoclient,tripleo-common,openstack-tripleo-heat-templates,openstack-tripleo-image-elements,openstack-tuskar-ui-extras,openstack-puppet-modules<br>> > > > > EOF"<br>> > > > > 7 sudo curl -o /etc/yum.repos.d/delorean-deps.repo<br>> > > > > http://trunk.rdoproject.org/centos7-liberty/delorean-deps.repo<br>> > > > > 8 sudo yum -y install yum-plugin-priorities<br>> > > > > 9 sudo yum install -y python-tripleoclient<br>> > > > > 10 cp /usr/share/instack-undercloud/undercloud.conf.sample<br>> > > > > ~/undercloud.conf<br>> > > > > 11 vi undercloud.conf<br>> > > > > 12 export DIB_INSTALLTYPE_puppet_modules=source<br>> > > > > 13 openstack undercloud install<br>> > > > > 14 source stackrc<br>> > > > > 15 export NODE_DIST=centos7<br>> > > > > 16 export DIB_YUM_REPO_CONF="/etc/yum.repos.d/delorean.repo<br>> > > > > /etc/yum.repos.d/delorean-deps.repo"<br>> > > > > 17 export DIB_INSTALLTYPE_puppet_modules=source<br>> > > > > 18 openstack overcloud image build --all<br>> > > > > 19 ls<br>> > > > > 20 openstack overcloud image upload<br>> > > > > 21 openstack baremetal import --json instackenv.json<br>> > > > > 22 openstack baremetal configure boot<br>> > > > > 23 ironic node-list<br>> > > > > 24 openstack baremetal introspection bulk start<br>> > > > > 25 ironic node-list<br>> > > > > 26 ironic node-show 5b28998f-4dc8-42aa-8a51-521e20b1e5ed<br>> > > > > 27 ironic node-show 6f35ac24-135d-4b99-8a24-fa2b731bd218<br>> > > > > 28 history<br>> > > > ><br>> > > > ><br>> > > > ><br>> > > > ><br>> > > > ><br>> > > > ><br>> > > > ><br>> > > > > Thanks<br>> > > > ><br>> > > > ><br>> > > > ><br>> > > > > Esra ÇELİK<br>> > > > > TÜBİTAK BİLGEM<br>> > > > > www.bilgem.tubitak.gov.tr<br>> > > > > celik.esra@tubitak.gov.tr<br>> > > > ><br>> > > > ><br>> > > > > Kimden: "Marius Cornea" <mcornea@redhat.com><br>> > > > > Kime: "Esra Celik" <celik.esra@tubitak.gov.tr><br>> > > > > Kk: "Ignacio Bravo" <ibravo@ltgfederal.com>, rdo-list@redhat.com<br>> > > > > Gönderilenler: 14 Ekim Çarşamba 2015 19:40:07<br>> > > > > Konu: Re: [Rdo-list] OverCloud deploy fails with error "No valid host<br>> > > > > was<br>> > > > > found"<br>> > > > ><br>> > > > > Can you do ironic node-show for your ironic nodes and post the<br>> > > > > results?<br>> > > > > Also<br>> > > > > check the following suggestion if you're experiencing the same issue:<br>> > > > > https://www.redhat.com/archives/rdo-list/2015-October/msg00174.html<br>> > > > ><br>> > > > > ----- Original Message -----<br>> > > > > > From: "Esra Celik" <celik.esra@tubitak.gov.tr><br>> > > > > > To: "Marius Cornea" <mcornea@redhat.com><br>> > > > > > Cc: "Ignacio Bravo" <ibravo@ltgfederal.com>, rdo-list@redhat.com<br>> > > > > > Sent: Wednesday, October 14, 2015 3:22:20 PM<br>> > > > > > Subject: Re: [Rdo-list] OverCloud deploy fails with error "No valid<br>> > > > > > host<br>> > > > > > was found"<br>> > > > > ><br>> > > > > ><br>> > > > > ><br>> > > > > > Well in the early stage of the introspection I can see Client IP of<br>> > > > > > nodes<br>> > > > > > (screenshot attached). But then I see continuous<br>> > > > > > ironic-python-agent<br>> > > > > > errors<br>> > > > > > (screenshot-2 attached). Errors repeat after time out.. And the<br>> > > > > > nodes<br>> > > > > > are<br>> > > > > > not powered off.<br>> > > > > ><br>> > > > > > Seems like I am stuck in introspection stage..<br>> > > > > ><br>> > > > > > I can use ipmitool command to successfully power on/off the nodes<br>> > > > > ><br>> > > > > ><br>> > > > > ><br>> > > > > > [stack@undercloud ~]$ ipmitool -I lanplus -H 192.168.0.19 -L<br>> > > > > > ADMINISTRATOR<br>> > > > > > -U<br>> > > > > > root -R 3 -N 5 -P <password> power status<br>> > > > > > Chassis Power is on<br>> > > > > ><br>> > > > > ><br>> > > > > > [stack@undercloud ~]$ ipmitool -H 192.168.0.18 -I lanplus -U root<br>> > > > > > -P<br>> > > > > > <password> chassis power status<br>> > > > > > Chassis Power is on<br>> > > > > > [stack@undercloud ~]$ ipmitool -H 192.168.0.18 -I lanplus -U root<br>> > > > > > -P<br>> > > > > > <password> chassis power off<br>> > > > > > Chassis Power Control: Down/Off<br>> > > > > > [stack@undercloud ~]$ ipmitool -H 192.168.0.18 -I lanplus -U root<br>> > > > > > -P<br>> > > > > > <password> chassis power status<br>> > > > > > Chassis Power is off<br>> > > > > > [stack@undercloud ~]$ ipmitool -H 192.168.0.18 -I lanplus -U root<br>> > > > > > -P<br>> > > > > > <password> chassis power on<br>> > > > > > Chassis Power Control: Up/On<br>> > > > > > [stack@undercloud ~]$ ipmitool -H 192.168.0.18 -I lanplus -U root<br>> > > > > > -P<br>> > > > > > <password> chassis power status<br>> > > > > > Chassis Power is on<br>> > > > > ><br>> > > > > ><br>> > > > > > Esra ÇELİK<br>> > > > > > TÜBİTAK BİLGEM<br>> > > > > > www.bilgem.tubitak.gov.tr<br>> > > > > > celik.esra@tubitak.gov.tr<br>> > > > > ><br>> > > > > ><br>> > > > > > ----- Orijinal Mesaj -----<br>> > > > > ><br>> > > > > > Kimden: "Marius Cornea" <mcornea@redhat.com><br>> > > > > > Kime: "Esra Celik" <celik.esra@tubitak.gov.tr><br>> > > > > > Kk: "Ignacio Bravo" <ibravo@ltgfederal.com>, rdo-list@redhat.com<br>> > > > > > Gönderilenler: 14 Ekim Çarşamba 2015 14:59:30<br>> > > > > > Konu: Re: [Rdo-list] OverCloud deploy fails with error "No valid<br>> > > > > > host<br>> > > > > > was<br>> > > > > > found"<br>> > > > > ><br>> > > > > ><br>> > > > > > ----- Original Message -----<br>> > > > > > > From: "Esra Celik" <celik.esra@tubitak.gov.tr><br>> > > > > > > To: "Marius Cornea" <mcornea@redhat.com><br>> > > > > > > Cc: "Ignacio Bravo" <ibravo@ltgfederal.com>, rdo-list@redhat.com<br>> > > > > > > Sent: Wednesday, October 14, 2015 10:49:01 AM<br>> > > > > > > Subject: Re: [Rdo-list] OverCloud deploy fails with error "No<br>> > > > > > > valid<br>> > > > > > > host<br>> > > > > > > was found"<br>> > > > > > ><br>> > > > > > ><br>> > > > > > > Well today I started with re-installing the OS and nothing seems<br>> > > > > > > wrong<br>> > > > > > > with<br>> > > > > > > undercloud installation, then;<br>> > > > > > ><br>> > > > > > ><br>> > > > > > ><br>> > > > > > ><br>> > > > > > ><br>> > > > > > ><br>> > > > > > > I see an error during image build<br>> > > > > > ><br>> > > > > > ><br>> > > > > > > [stack@undercloud ~]$ openstack overcloud image build --all<br>> > > > > > > ...<br>> > > > > > > a lot of log<br>> > > > > > > ...<br>> > > > > > > ++ cat /etc/dib_dracut_drivers<br>> > > > > > > + dracut -N --install ' curl partprobe lsblk targetcli tail head<br>> > > > > > > awk<br>> > > > > > > ifconfig<br>> > > > > > > cut expr route ping nc wget tftp grep' --kernel-cmdline 'rd.shell<br>> > > > > > > rd.debug<br>> > > > > > > rd.neednet=1 rd.driver.pre=ahci' --include<br>> > > > > > > /var/tmp/image.YVhwuArQ/mnt/<br>> > > > > > > /<br>> > > > > > > --kver 3.10.0-229.14.1.el7.x86_64 --add-drivers ' virtio<br>> > > > > > > virtio_net<br>> > > > > > > virtio_blk target_core_mod iscsi_target_mod target_core_iblock<br>> > > > > > > target_core_file target_core_pscsi configfs' -o 'dash plymouth'<br>> > > > > > > /tmp/ramdisk<br>> > > > > > > cat: write error: Broken pipe<br>> > > > > > > + cp /boot/vmlinuz-3.10.0-229.14.1.el7.x86_64 /tmp/kernel<br>> > > > > > > + chmod o+r /tmp/kernel<br>> > > > > > > + trap EXIT<br>> > > > > > > + target_tag=99-build-dracut-ramdisk<br>> > > > > > > + date +%s.%N<br>> > > > > > > + output '99-build-dracut-ramdisk completed'<br>> > > > > > > ...<br>> > > > > > > a lot of log<br>> > > > > > > ...<br>> > > > > ><br>> > > > > > You can ignore that afaik, if you end up having all the required<br>> > > > > > images<br>> > > > > > it<br>> > > > > > should be ok.<br>> > > > > ><br>> > > > > > ><br>> > > > > > > Then, during introspection stage I see ironic-python-agent errors<br>> > > > > > > on<br>> > > > > > > nodes<br>> > > > > > > (screenshot attached) and the following warnings<br>> > > > > > ><br>> > > > > ><br>> > > > > > That looks odd. Is it showing up in the early stage of the<br>> > > > > > introspection?<br>> > > > > > At<br>> > > > > > some point it should receive an address by DHCP and the Network is<br>> > > > > > unreachable error should disappear. Does the introspection complete<br>> > > > > > and<br>> > > > > > the<br>> > > > > > nodes are turned off?<br>> > > > > ><br>> > > > > > ><br>> > > > > > ><br>> > > > > > > [root@localhost ~]# journalctl -fl -u<br>> > > > > > > openstack-ironic-conductor.service<br>> > > > > > > |<br>> > > > > > > grep -i "warning\|error"<br>> > > > > > > Oct 14 10:30:12 undercloud.rdo ironic-conductor[619]: 2015-10-14<br>> > > > > > > 10:30:12.119<br>> > > > > > > 619 WARNING oslo_config.cfg<br>> > > > > > > [req-eccf8cb5-6e93-4d8f-9a05-0e8c8d2aab7b<br>> > > > > > > ]<br>> > > > > > > Option "http_url" from group "pxe" is deprecated. Use option<br>> > > > > > > "http_url"<br>> > > > > > > from<br>> > > > > > > group "deploy".<br>> > > > > > > Oct 14 10:30:12 undercloud.rdo ironic-conductor[619]: 2015-10-14<br>> > > > > > > 10:30:12.119<br>> > > > > > > 619 WARNING oslo_config.cfg<br>> > > > > > > [req-eccf8cb5-6e93-4d8f-9a05-0e8c8d2aab7b<br>> > > > > > > ]<br>> > > > > > > Option "http_root" from group "pxe" is deprecated. Use option<br>> > > > > > > "http_root"<br>> > > > > > > from group "deploy".<br>> > > > > > ><br>> > > > > > ><br>> > > > > > > Before deployment ironic node-list:<br>> > > > > > ><br>> > > > > ><br>> > > > > > This is odd too as I'm expecting the nodes to be powered off before<br>> > > > > > running<br>> > > > > > deployment.<br>> > > > > ><br>> > > > > > ><br>> > > > > > ><br>> > > > > > > [stack@undercloud ~]$ ironic node-list<br>> > > > > > > +--------------------------------------+------+---------------+-------------+--------------------+-------------+<br>> > > > > > > | UUID | Name | Instance UUID | Power State | Provisioning State<br>> > > > > > > | |<br>> > > > > > > | Maintenance |<br>> > > > > > > +--------------------------------------+------+---------------+-------------+--------------------+-------------+<br>> > > > > > > | acfc1bb4-469d-479a-af70-c0bdd669b32d | None | None | power on |<br>> > > > > > > | available<br>> > > > > > > | |<br>> > > > > > > | False |<br>> > > > > > > | b5811c06-d5d1-41f1-87b3-2fd55ae63553 | None | None | power on |<br>> > > > > > > | available<br>> > > > > > > | |<br>> > > > > > > | False |<br>> > > > > > > +--------------------------------------+------+---------------+-------------+--------------------+-------------+<br>> > > > > > ><br>> > > > > > > During deployment I get following errors<br>> > > > > > ><br>> > > > > > > [root@localhost ~]# journalctl -fl -u<br>> > > > > > > openstack-ironic-conductor.service<br>> > > > > > > |<br>> > > > > > > grep -i "warning\|error"<br>> > > > > > > Oct 14 11:29:01 undercloud.rdo ironic-conductor[619]: 2015-10-14<br>> > > > > > > 11:29:01.739<br>> > > > > > > 619 ERROR ironic.drivers.modules.ipmitool [-] IPMI Error while<br>> > > > > > > attempting<br>> > > > > > > "ipmitool -I lanplus -H 192.168.0.19 -L ADMINISTRATOR -U root -R<br>> > > > > > > 3<br>> > > > > > > -N<br>> > > > > > > 5<br>> > > > > > > -f<br>> > > > > > > /tmp/tmpSCKHIv power status"for node<br>> > > > > > > b5811c06-d5d1-41f1-87b3-2fd55ae63553.<br>> > > > > > > Error: Unexpected error while running command.<br>> > > > > > > Oct 14 11:29:01 undercloud.rdo ironic-conductor[619]: 2015-10-14<br>> > > > > > > 11:29:01.739<br>> > > > > > > 619 WARNING ironic.drivers.modules.ipmitool [-] IPMI power status<br>> > > > > > > failed<br>> > > > > > > for<br>> > > > > > > node b5811c06-d5d1-41f1-87b3-2fd55ae63553 with error: Unexpected<br>> > > > > > > error<br>> > > > > > > while<br>> > > > > > > running command.<br>> > > > > > > Oct 14 11:29:01 undercloud.rdo ironic-conductor[619]: 2015-10-14<br>> > > > > > > 11:29:01.740<br>> > > > > > > 619 WARNING ironic.conductor.manager [-] During sync_power_state,<br>> > > > > > > could<br>> > > > > > > not<br>> > > > > > > get power state for node b5811c06-d5d1-41f1-87b3-2fd55ae63553,<br>> > > > > > > attempt<br>> > > > > > > 1<br>> > > > > > > of<br>> > > > > > > 3. Error: IPMI call failed: power status..<br>> > > > > > ><br>> > > > > ><br>> > > > > > This looks like an ipmi error, can you try to manually run commands<br>> > > > > > using<br>> > > > > > the<br>> > > > > > ipmitool and see if you get any success? It's also worth filing a<br>> > > > > > bug<br>> > > > > > with<br>> > > > > > details such as the ipmitool version, server model, drac firmware<br>> > > > > > version.<br>> > > > > ><br>> > > > > > ><br>> > > > > > ><br>> > > > > > ><br>> > > > > > ><br>> > > > > > ><br>> > > > > > > Thanks a lot<br>> > > > > > ><br>> > > > > > ><br>> > > > > > ><br>> > > > > > > ----- Orijinal Mesaj -----<br>> > > > > > ><br>> > > > > > > Kimden: "Marius Cornea" <mcornea@redhat.com><br>> > > > > > > Kime: "Esra Celik" <celik.esra@tubitak.gov.tr><br>> > > > > > > Kk: "Ignacio Bravo" <ibravo@ltgfederal.com>, rdo-list@redhat.com<br>> > > > > > > Gönderilenler: 13 Ekim Salı 2015 21:16:14<br>> > > > > > > Konu: Re: Yan: Re: [Rdo-list] OverCloud deploy fails with error<br>> > > > > > > "No<br>> > > > > > > valid<br>> > > > > > > host was found"<br>> > > > > > ><br>> > > > > > ><br>> > > > > > > ----- Original Message -----<br>> > > > > > > > From: "Esra Celik" <celik.esra@tubitak.gov.tr><br>> > > > > > > > To: "Marius Cornea" <mcornea@redhat.com><br>> > > > > > > > Cc: "Ignacio Bravo" <ibravo@ltgfederal.com>,<br>> > > > > > > > rdo-list@redhat.com<br>> > > > > > > > Sent: Tuesday, October 13, 2015 5:02:09 PM<br>> > > > > > > > Subject: Yan: Re: [Rdo-list] OverCloud deploy fails with error<br>> > > > > > > > "No<br>> > > > > > > > valid<br>> > > > > > > > host was found"<br>> > > > > > > ><br>> > > > > > > > During deployment they are powering on and deploying the<br>> > > > > > > > images.<br>> > > > > > > > I<br>> > > > > > > > see<br>> > > > > > > > lot<br>> > > > > > > > of<br>> > > > > > > > connection error messages about ironic-python-agent but ignore<br>> > > > > > > > them<br>> > > > > > > > as<br>> > > > > > > > mentioned here<br>> > > > > > > > (https://www.redhat.com/archives/rdo-list/2015-October/msg00052.html)<br>> > > > > > ><br>> > > > > > > That was referring to the introspection stage. From what I can<br>> > > > > > > tell<br>> > > > > > > you<br>> > > > > > > are<br>> > > > > > > experiencing issues during deployment as it fails to provision<br>> > > > > > > the<br>> > > > > > > nova<br>> > > > > > > instances, can you check if during that stage the nodes get<br>> > > > > > > powered<br>> > > > > > > on?<br>> > > > > > ><br>> > > > > > > Make sure that before overcloud deploy the ironic nodes are<br>> > > > > > > available<br>> > > > > > > for<br>> > > > > > > provisioning (ironic node-list and check the provisioning state<br>> > > > > > > column).<br>> > > > > > > Also check that you didn't miss any step in the docs in regards<br>> > > > > > > to<br>> > > > > > > kernel<br>> > > > > > > and ramdisk assignment, introspection, flavor creation(so it<br>> > > > > > > matches<br>> > > > > > > the<br>> > > > > > > nodes resources)<br>> > > > > > > https://repos.fedorapeople.org/repos/openstack-m/rdo-manager-docs/liberty/basic_deployment/basic_deployment_cli.html<br>> > > > > > ><br>> > > > > > ><br>> > > > > > > > In instackenv.json file I do not need to add the undercloud<br>> > > > > > > > node,<br>> > > > > > > > or<br>> > > > > > > > do<br>> > > > > > > > I?<br>> > > > > > ><br>> > > > > > > No, the nodes details should be enough.<br>> > > > > > ><br>> > > > > > > > And which log files should I watch during deployment?<br>> > > > > > ><br>> > > > > > > You can check the openstack-ironic-conductor logs(journalctl -fl<br>> > > > > > > -u<br>> > > > > > > openstack-ironic-conductor.service) and the logs in<br>> > > > > > > /var/log/nova.<br>> > > > > > ><br>> > > > > > > > Thanks<br>> > > > > > > > Esra<br>> > > > > > > ><br>> > > > > > > ><br>> > > > > > > > ----- Orijinal Mesaj -----Kimden: Marius Cornea<br>> > > > > > > > <mcornea@redhat.com>Kime:<br>> > > > > > > > Esra Celik <celik.esra@tubitak.gov.tr>Kk: Ignacio Bravo<br>> > > > > > > > <ibravo@ltgfederal.com>, rdo-list@redhat.comG&ouml;nderilenler:<br>> > > > > > > > Tue,<br>> > > > > > > > 13<br>> > > > > > > > Oct<br>> > > > > > > > 2015 17:25:00 +0300 (EEST)Konu: Re: [Rdo-list] OverCloud deploy<br>> > > > > > > > fails<br>> > > > > > > > with<br>> > > > > > > > error "No valid host was found"<br>> > > > > > > ><br>> > > > > > > > ----- Original Message -----> From: "Esra Celik"<br>> > > > > > > > <celik.esra@tubitak.gov.tr>><br>> > > > > > > > To: "Ignacio Bravo" <ibravo@ltgfederal.com>> Cc:<br>> > > > > > > > rdo-list@redhat.com><br>> > > > > > > > Sent:<br>> > > > > > > > Tuesday, October 13, 2015 3:47:57 PM> Subject: Re: [Rdo-list]<br>> > > > > > > > OverCloud<br>> > > > > > > > deploy fails with error "No valid host was found"> > > ><br>> > > > > > > > Actually<br>> > > > > > > > I<br>> > > > > > > > re-installed the OS for Undercloud before deploying. However I<br>> > > > > > > > did><br>> > > > > > > > not<br>> > > > > > > > re-install the OS in Compute and Controller nodes.. I will<br>> > > > > > > > reinstall><br>> > > > > > > > basic<br>> > > > > > > > OS for them too, and retry..<br>> > > > > > > ><br>> > > > > > > > You don't need to reinstall the OS on the controller and<br>> > > > > > > > compute,<br>> > > > > > > > they<br>> > > > > > > > will<br>> > > > > > > > get the image served by the undercloud. I'd recommend that<br>> > > > > > > > during<br>> > > > > > > > deployment<br>> > > > > > > > you watch the servers console and make sure they get powered<br>> > > > > > > > on,<br>> > > > > > > > pxe<br>> > > > > > > > boot,<br>> > > > > > > > and actually get the image deployed.<br>> > > > > > > ><br>> > > > > > > > Thanks<br>> > > > > > > ><br>> > > > > > > > > Thanks> > > > Esra &Ccedil;ELİK> T&Uuml;BİTAK BİLGEM><br>> > > > > > > > > www.bilgem.tubitak.gov.tr> celik.esra@tubitak.gov.tr> > ><br>> > > > > > > > > Kimden:<br>> > > > > > > > > "Ignacio<br>> > > > > > > > > Bravo" <ibravo@ltgfederal.com>> Kime: "Esra Celik"<br>> > > > > > > > > <celik.esra@tubitak.gov.tr>> Kk: rdo-list@redhat.com><br>> > > > > > > > > G&ouml;nderilenler:<br>> > > > > > > > > 13 Ekim Salı 2015 16:36:06> Konu: Re: [Rdo-list] OverCloud<br>> > > > > > > > > deploy<br>> > > > > > > > > fails<br>> > > > > > > > > with error "No valid host was> found"> > Esra,> > I<br>> > > > > > > > > encountered<br>> > > > > > > > > the<br>> > > > > > > > > same<br>> > > > > > > > > problem after deleting the stack and re-deploying.> > It<br>> > > > > > > > > turns<br>> > > > > > > > > out<br>> > > > > > > > > that<br>> > > > > > > > > 'heat stack-delete overcloud&rsquo; does remove the nodes<br>> > > > > > > > > from><br>> > > > > > > > > &lsquo;nova list&rsquo; and one would assume that the<br>> > > > > > > > > baremetal<br>> > > > > > > > > servers<br>> > > > > > > > > are now ready to> be used for the next stack, but when<br>> > > > > > > > > redeploying,<br>> > > > > > > > > I<br>> > > > > > > > > get<br>> > > > > > > > > the same message of> not enough hosts available.> > You can<br>> > > > > > > > > look<br>> > > > > > > > > into<br>> > > > > > > > > the<br>> > > > > > > > > nova logs and it mentions something about &lsquo;node xxx is><br>> > > > > > > > > already<br>> > > > > > > > > associated with UUID yyyy&rsquo; and &lsquo;I tried 3 times<br>> > > > > > > > > and<br>> > > > > > > > > I&rsquo;m<br>> > > > > > > > > giving up&rsquo;.> The issue is that the UUID yyyy belonged<br>> > > > > > > > > to<br>> > > > > > > > > a<br>> > > > > > > > > prior<br>> > > > > > > > > unsuccessful deployment.> > I&rsquo;m now redeploying the<br>> > > > > > > > > basic<br>> > > > > > > > > OS<br>> > > > > > > > > to<br>> > > > > > > > > start from scratch again.> > IB> > __> Ignacio Bravo> LTG<br>> > > > > > > > > Federal,<br>> > > > > > > > > Inc><br>> > > > > > > > > www.ltgfederal.com> Office: (703) 951-7760> > > > On Oct 13,<br>> > > > > > > > > 2015,<br>> > > > > > > > > at<br>> > > > > > > > > 9:25<br>> > > > > > > > > AM, Esra Celik < celik.esra@tubitak.gov.tr > wrote:> > > Hi<br>> > > > > > > > > all,><br>> > > > > > > > > ><br>> > > > > > > > > OverCloud deploy fails with error "No valid host was found"><br>> > > > > > > > > ><br>> > > > > > > > > [stack@undercloud ~]$ openstack overcloud deploy --templates><br>> > > > > > > > > Deploying<br>> > > > > > > > > templates in the directory><br>> > > > > > > > > /usr/share/openstack-tripleo-heat-templates><br>> > > > > > > > > Stack failed with status: Resource CREATE failed:<br>> > > > > > > > > resources.Compute:><br>> > > > > > > > > ResourceInError: resources[0].resources.NovaCompute: Went to<br>> > > > > > > > > status<br>> > > > > > > > > ERROR><br>> > > > > > > > > due to "Message: No valid host was found. There are not<br>> > > > > > > > > enough<br>> > > > > > > > > hosts><br>> > > > > > > > > available., Code: 500"> Heat Stack create failed.> > Here are<br>> > > > > > > > > some<br>> > > > > > > > > logs:><br>> > > > > > > > > > Every 2.0s: heat resource-list -n 5 overcloud | grep -v<br>> > > > > > > > > > COMPLETE<br>> > > > > > > > > > Tue<br>> > > > > > > > > > Oct<br>> > > > > > > > > 13> 16:18:17 2015> ><br>> > > > > > > > > +-------------------------------------------+-----------------------------------------------+---------------------------------------------------+--------------------+---------------------+---------------------------------------------------------------------------------+><br>> > > > > > > > > | resource_name | physical_resource_id | resource_type |<br>> > > > > > > > > | resource_status<br>> > > > > > > > > |> | updated_time | stack_name |><br>> > > > > > > > > +-------------------------------------------+-----------------------------------------------+---------------------------------------------------+--------------------+---------------------+---------------------------------------------------------------------------------+><br>> > > > > > > > > | Compute | e33b6b1e-8740-4ded-ad7f-720617a03393 |<br>> > > > > > > > > | OS::Heat::ResourceGroup<br>> > > > > > > > > |> | CREATE_FAILED | 2015-10-13T10:20:36 | overcloud |> |<br>> > > > > > > > > |> | Controller<br>> > > > > > > > > |> | |<br>> > > > > > > > > 116c57ff-debb-4c12-92e1-e4163b67dc17 |<br>> > > > > > > > > OS::Heat::ResourceGroup><br>> > > > > > > > > |<br>> > > > > > > > > |<br>> > > > > > > > > CREATE_FAILED | 2015-10-13T10:20:36 | overcloud |> | 0 |<br>> > > > > > > > > 342a9023-de8f-4b5b-b3ec-498d99b56dc4 |<br>> > > > > > > > > OS::TripleO::Controller<br>> > > > > > > > > |><br>> > > > > > > > > |<br>> > > > > > > > > CREATE_IN_PROGRESS | 2015-10-13T10:20:52 |> |<br>> > > > > > > > > overcloud-Controller-45bbw24xxhxs |> | 0 |<br>> > > > > > > > > e420a7bd-86f8-4cc1-b6a0-5ba8d1412453 | OS::TripleO::Compute<br>> > > > > > > > > |><br>> > > > > > > > > |<br>> > > > > > > > > CREATE_FAILED | 2015-10-13T10:20:54 |<br>> > > > > > > > > overcloud-Compute-vqk632ysg64r<br>> > > > > > > > > |><br>> > > > > > > > > |<br>> > > > > > > > > Controller | 2e9ac712-0566-49b5-958f-c3e151bb24d7 |<br>> > > > > > > > > OS::Nova::Server<br>> > > > > > > > > |><br>> > > > > > > > > |<br>> > > > > > > > > CREATE_IN_PROGRESS | 2015-10-13T10:20:54 |> |<br>> > > > > > > > > overcloud-Controller-45bbw24xxhxs-0-3vyhjiak2rsk |> |<br>> > > > > > > > > NovaCompute<br>> > > > > > > > > |<br>> > > > > > > > > 96efee56-81cb-46af-beef-84f4a3af761a | OS::Nova::Server |> |<br>> > > > > > > > > CREATE_FAILED<br>> > > > > > > > > | 2015-10-13T10:20:56 |> |<br>> > > > > > > > > | overcloud-Compute-vqk632ysg64r-0-32nalzkofmef<br>> > > > > > > > > |><br>> > > > > > > > > +-------------------------------------------+-----------------------------------------------+---------------------------------------------------+--------------------+---------------------+---------------------------------------------------------------------------------+><br>> > > > > > > > > > > [stack@undercloud ~]$ heat resource-show overcloud<br>> > > > > > > > > > > Compute><br>> > > > > > > > > +------------------------+------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+><br>> > > > > > > > > | Property | Value |><br>> > > > > > > > > +------------------------+------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+><br>> > > > > > > > > | attributes | { |> | | "attributes": null, |> | | "refs":<br>> > > > > > > > > | null<br>> > > > > > > > > | |><br>> > > > > > > > > | |<br>> > > > > > > > > | |<br>> > > > > > > > > | }<br>> > > > > > > > > |> | creation_time | 2015-10-13T10:20:36 |> | description |<br>> > > > > > > > > |> | |><br>> > > > > > > > > |> | |<br>> > > > > > > > > |> | links<br>> > > > > > > > > |> | |><br>> > > > > > > > > |<br>> > > > > > > > > http://192.0.2.1:8004/v1/3c5942d315bc445c8f1f7b32bd445de5/stacks/overcloud/620ada83-fb7d-4769-b1e8-431cfbb37d70/resources/Compute><br>> > > > > > > > > | (self) |> | |<br>> > > > > > > > > http://192.0.2.1:8004/v1/3c5942d315bc445c8f1f7b32bd445de5/stacks/overcloud/620ada83-fb7d-4769-b1e8-431cfbb37d70><br>> > > > > > > > > | | (stack) |> | |<br>> > > > > > > > > http://192.0.2.1:8004/v1/3c5942d315bc445c8f1f7b32bd445de5/stacks/overcloud-Compute-vqk632ysg64r/e33b6b1e-8740-4ded-ad7f-720617a03393><br>> > > > > > > > > | | (nested) |> | logical_resource_id | Compute |> |<br>> > > > > > > > > | | physical_resource_id<br>> > > > > > > > > | e33b6b1e-8740-4ded-ad7f-720617a03393 |> | required_by |<br>> > > > > > > > > ComputeAllNodesDeployment |> | | ComputeNodesPostDeployment<br>> > > > > > > > > |><br>> > > > > > > > > |<br>> > > > > > > > > |<br>> > > > > > > > > ComputeCephDeployment |> | |<br>> > > > > > > > > ComputeAllNodesValidationDeployment<br>> > > > > > > > > |><br>> > > > > > > > > |<br>> > > > > > > > > |<br>> > > > > > > > > AllNodesExtraConfig |> | | allNodesConfig |> | resource_name<br>> > > > > > > > > |<br>> > > > > > > > > Compute<br>> > > > > > > > > |><br>> > > > > > > > > | resource_status | CREATE_FAILED |> | resource_status_reason<br>> > > > > > > > > | |<br>> > > > > > > > > resources.Compute: ResourceInError:> |<br>> > > > > > > > > resources[0].resources.NovaCompute:<br>> > > > > > > > > Went to status ERROR due to "Message:> | No valid host was<br>> > > > > > > > > found.<br>> > > > > > > > > There<br>> > > > > > > > > are not enough hosts available., Code: 500"> | |> |<br>> > > > > > > > > resource_type<br>> > > > > > > > > |<br>> > > > > > > > > OS::Heat::ResourceGroup |> | updated_time |<br>> > > > > > > > > 2015-10-13T10:20:36<br>> > > > > > > > > |><br>> > > > > > > > > +------------------------+------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+><br>> > > > > > > > > > > > This is my instackenv.json for 1 compute and 1 control<br>> > > > > > > > > > > > node<br>> > > > > > > > > > > > to<br>> > > > > > > > > > > > be<br>> > > > > > > > > deployed.> > {> "nodes": [> {> "pm_type":"pxe_ipmitool",><br>> > > > > > > > > "mac":[><br>> > > > > > > > > "08:9E:01:58:CC:A1"> ],> "cpu":"4",> "memory":"8192",><br>> > > > > > > > > "disk":"10",><br>> > > > > > > > > "arch":"x86_64",> "pm_user":"root",> "pm_password":"calvin",><br>> > > > > > > > > "pm_addr":"192.168.0.18"> },> {> "pm_type":"pxe_ipmitool",><br>> > > > > > > > > "mac":[><br>> > > > > > > > > "08:9E:01:58:D0:3D"> ],> "cpu":"4",> "memory":"8192",><br>> > > > > > > > > "disk":"100",><br>> > > > > > > > > "arch":"x86_64",> "pm_user":"root",> "pm_password":"calvin",><br>> > > > > > > > > "pm_addr":"192.168.0.19"> }> ]> }> > > Any ideas? Thanks in<br>> > > > > > > > > advance><br>> > > > > > > > > ><br>> > > > > > > > > ><br>> > > > > > > > > Esra &Ccedil;ELİK> T&Uuml;BİTAK BİLGEM><br>> > > > > > > > > www.bilgem.tubitak.gov.tr><br>> > > > > > > > > celik.esra@tubitak.gov.tr> ><br>> > > > > > > > > _______________________________________________> Rdo-list<br>> > > > > > > > > mailing<br>> > > > > > > > > list><br>> > > > > > > > > Rdo-list@redhat.com><br>> > > > > > > > > https://www.redhat.com/mailman/listinfo/rdo-list><br>> > > > > > > > > ><br>> > > > > > > > > To unsubscribe: rdo-list-unsubscribe@redhat.com> > > ><br>> > > > > > > > > _______________________________________________> Rdo-list<br>> > > > > > > > > mailing<br>> > > > > > > > > list><br>> > > > > > > > > Rdo-list@redhat.com><br>> > > > > > > > > https://www.redhat.com/mailman/listinfo/rdo-list><br>> > > > > > > > > ><br>> > > > > > > > > To unsubscribe: rdo-list-unsubscribe@redhat.com<br>> > > > > > > ><br>> > > > > > ><br>> > > > > > ><br>> > > > > ><br>> > > > > ><br>> > > > ><br>> > > > ><br>> > > > > _______________________________________________<br>> > > > > Rdo-list mailing list<br>> > > > > Rdo-list@redhat.com<br>> > > > > https://www.redhat.com/mailman/listinfo/rdo-list<br>> > > > ><br>> > > > > To unsubscribe: rdo-list-unsubscribe@redhat.com<br>> > ><br>> <br><div><br></div></blockquote><div><br></div></div></body></html>